KR102313656B1 - Method for, device for, and system for analazing brain image - Google Patents
Method for, device for, and system for analazing brain image Download PDFInfo
- Publication number
- KR102313656B1 KR102313656B1 KR1020200187931A KR20200187931A KR102313656B1 KR 102313656 B1 KR102313656 B1 KR 102313656B1 KR 1020200187931 A KR1020200187931 A KR 1020200187931A KR 20200187931 A KR20200187931 A KR 20200187931A KR 102313656 B1 KR102313656 B1 KR 102313656B1
- Authority
- KR
- South Korea
- Prior art keywords
- brain
- image
- morphological
- region
- target
- Prior art date
Links
- 210000004556 brain Anatomy 0.000 title claims abstract description 805
- 238000000034 method Methods 0.000 title claims description 285
- 230000000877 morphologic effect Effects 0.000 claims abstract description 1062
- 238000012937 correction Methods 0.000 claims abstract description 394
- 238000003703 image analysis method Methods 0.000 claims abstract description 89
- 238000010191 image analysis Methods 0.000 claims description 727
- 230000011218 segmentation Effects 0.000 claims description 190
- 210000003625 skull Anatomy 0.000 claims description 124
- 238000013528 artificial neural network Methods 0.000 claims description 92
- 238000007781 pre-processing Methods 0.000 claims description 71
- 238000004458 analytical method Methods 0.000 claims description 70
- 238000012886 linear function Methods 0.000 claims description 32
- 230000003925 brain function Effects 0.000 claims description 19
- 238000002610 neuroimaging Methods 0.000 claims description 3
- 238000002203 pretreatment Methods 0.000 claims 1
- 238000003062 neural network model Methods 0.000 description 215
- 230000008569 process Effects 0.000 description 144
- 238000010586 diagram Methods 0.000 description 111
- 238000003709 image segmentation Methods 0.000 description 107
- 201000010099 disease Diseases 0.000 description 92
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 92
- 238000003745 diagnosis Methods 0.000 description 91
- 210000003484 anatomy Anatomy 0.000 description 64
- 238000002372 labelling Methods 0.000 description 45
- 208000014644 Brain disease Diseases 0.000 description 42
- 238000012549 training Methods 0.000 description 40
- 210000001638 cerebellum Anatomy 0.000 description 37
- 238000010219 correlation analysis Methods 0.000 description 36
- 238000004891 communication Methods 0.000 description 30
- 230000006870 function Effects 0.000 description 30
- 206010003694 Atrophy Diseases 0.000 description 29
- 230000037444 atrophy Effects 0.000 description 29
- 238000003384 imaging method Methods 0.000 description 29
- 206010012289 Dementia Diseases 0.000 description 28
- 238000002595 magnetic resonance imaging Methods 0.000 description 27
- 229940079593 drug Drugs 0.000 description 22
- 239000003814 drug Substances 0.000 description 22
- 238000012216 screening Methods 0.000 description 21
- 230000008602 contraction Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 230000000971 hippocampal effect Effects 0.000 description 16
- 210000003478 temporal lobe Anatomy 0.000 description 16
- 230000007547 defect Effects 0.000 description 15
- 210000001652 frontal lobe Anatomy 0.000 description 15
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 14
- 210000001320 hippocampus Anatomy 0.000 description 13
- 238000005259 measurement Methods 0.000 description 13
- 230000000694 effects Effects 0.000 description 12
- 230000002159 abnormal effect Effects 0.000 description 11
- 238000002591 computed tomography Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 10
- 238000006243 chemical reaction Methods 0.000 description 10
- 210000001152 parietal lobe Anatomy 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 9
- 208000024827 Alzheimer disease Diseases 0.000 description 8
- 239000008186 active pharmaceutical agent Substances 0.000 description 8
- HGBLNBBNRORJKI-WCABBAIRSA-N cyclacillin Chemical compound N([C@H]1[C@H]2SC([C@@H](N2C1=O)C(O)=O)(C)C)C(=O)C1(N)CCCCC1 HGBLNBBNRORJKI-WCABBAIRSA-N 0.000 description 8
- 238000010606 normalization Methods 0.000 description 8
- 201000004810 Vascular dementia Diseases 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000007917 intracranial administration Methods 0.000 description 6
- 238000010801 machine learning Methods 0.000 description 6
- 230000002123 temporal effect Effects 0.000 description 6
- 206010072731 White matter lesion Diseases 0.000 description 5
- 230000008901 benefit Effects 0.000 description 5
- 210000003710 cerebral cortex Anatomy 0.000 description 5
- 230000036541 health Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 210000000869 occipital lobe Anatomy 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 3
- 210000004727 amygdala Anatomy 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000002490 cerebral effect Effects 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 230000003862 health status Effects 0.000 description 3
- 210000003140 lateral ventricle Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001936 parietal effect Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 208000002339 Frontotemporal Lobar Degeneration Diseases 0.000 description 2
- 201000011240 Frontotemporal dementia Diseases 0.000 description 2
- 230000003930 cognitive ability Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000001054 cortical effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- NCWZOASIUQVOFA-FWZJPQCDSA-N florbetaben ((18)F) Chemical compound C1=CC(NC)=CC=C1\C=C\C1=CC=C(OCCOCCOCC[18F])C=C1 NCWZOASIUQVOFA-FWZJPQCDSA-N 0.000 description 2
- VVECGOCJFKTUAX-HUYCHCPVSA-N flutemetamol ((18)F) Chemical compound C1=C([18F])C(NC)=CC=C1C1=NC2=CC=C(O)C=C2S1 VVECGOCJFKTUAX-HUYCHCPVSA-N 0.000 description 2
- 229960003124 flutemetamol (18f) Drugs 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000002600 positron emission tomography Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000003908 quality control method Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 239000000700 radioactive tracer Substances 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000000611 regression analysis Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 102000013455 Amyloid beta-Peptides Human genes 0.000 description 1
- 108010090849 Amyloid beta-Peptides Proteins 0.000 description 1
- BSYNRYMUTXBXSQ-UHFFFAOYSA-N Aspirin Chemical compound CC(=O)OC1=CC=CC=C1C(O)=O BSYNRYMUTXBXSQ-UHFFFAOYSA-N 0.000 description 1
- 240000006541 Dactyloctenium aegyptium Species 0.000 description 1
- 101000783577 Dendroaspis angusticeps Thrombostatin Proteins 0.000 description 1
- 101000783578 Dendroaspis jamesoni kaimosae Dendroaspin Proteins 0.000 description 1
- 206010019468 Hemiplegia Diseases 0.000 description 1
- 238000012879 PET imaging Methods 0.000 description 1
- 208000030451 Vascular dementia disease Diseases 0.000 description 1
- 229960001138 acetylsalicylic acid Drugs 0.000 description 1
- 230000001430 anti-depressive effect Effects 0.000 description 1
- 230000000561 anti-psychotic effect Effects 0.000 description 1
- 239000003146 anticoagulant agent Substances 0.000 description 1
- 229940127219 anticoagulant drug Drugs 0.000 description 1
- 239000000935 antidepressant agent Substances 0.000 description 1
- 229940005513 antidepressants Drugs 0.000 description 1
- 229940127218 antiplatelet drug Drugs 0.000 description 1
- 239000002249 anxiolytic agent Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 210000004720 cerebrum Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000004087 circulation Effects 0.000 description 1
- 238000010835 comparative analysis Methods 0.000 description 1
- 238000002247 constant time method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- JXSJBGJIGXNWCI-UHFFFAOYSA-N diethyl 2-[(dimethoxyphosphorothioyl)thio]succinate Chemical compound CCOC(=O)CC(SP(=S)(OC)OC)C(=O)OCC JXSJBGJIGXNWCI-UHFFFAOYSA-N 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 210000004884 grey matter Anatomy 0.000 description 1
- 210000004326 gyrus cinguli Anatomy 0.000 description 1
- 101150008103 hal gene Proteins 0.000 description 1
- 210000002216 heart Anatomy 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000003112 inhibitor Substances 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 description 1
- 239000000106 platelet aggregation inhibitor Substances 0.000 description 1
- 238000002601 radiography Methods 0.000 description 1
- 229940121896 radiopharmaceutical Drugs 0.000 description 1
- 239000012217 radiopharmaceutical Substances 0.000 description 1
- 230000002799 radiopharmaceutical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000002739 subcortical effect Effects 0.000 description 1
- 102000013498 tau Proteins Human genes 0.000 description 1
- 108010026424 tau Proteins Proteins 0.000 description 1
- 210000001103 thalamus Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- PJVWKTKQMONHTI-UHFFFAOYSA-N warfarin Chemical compound OC=1C2=CC=CC=C2OC(=O)C=1C(CC(=O)C)C1=CC=CC=C1 PJVWKTKQMONHTI-UHFFFAOYSA-N 0.000 description 1
- 229960005080 warfarin Drugs 0.000 description 1
- 210000004885 white matter Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0033—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
- A61B5/004—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
- A61B5/0042—Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/05—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves
- A61B5/055—Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/501—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/70—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30016—Brain
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Neurology (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Primary Health Care (AREA)
- High Energy & Nuclear Physics (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Neurosurgery (AREA)
- Physiology (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Developmental Disabilities (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Dentistry (AREA)
- Databases & Information Systems (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
Description
본 출원은 뇌 영상을 분석하는 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템에 관한 것이다.The present application relates to a brain image analysis method for analyzing a brain image, a brain image analysis apparatus, and a brain image analysis system.
이미지 세그멘테이션 기술의 향상으로 인해, 의료 영상을 세그멘테이션하여 질환과 관련된 진단 보조 지표 등을 산출하는 것이 가능해지면서, 최근 의료 영상 분석 분야가 주목받고 있다. Due to the improvement of image segmentation technology, it is possible to segment a medical image to calculate an auxiliary diagnostic index related to a disease, and thus, the field of medical image analysis has recently been attracting attention.
특히, 치매의 진단 보조 지표를 제공하기 위하여 의료 영상 분석 기술이 다방면으로 이용되고 있으며, 객관적인 치매 진단 보조 정보를 제공하기 위하여 의료 영상으로부터 특정 영역의 형태학적 특성을 보다 정확하게 계산하는 것이 필수적으로 요구된다. In particular, medical image analysis technology is being used in many ways to provide an auxiliary indicator for diagnosis of dementia, and it is essential to more accurately calculate the morphological characteristics of a specific area from a medical image to provide objective dementia diagnosis assistance information. .
그러나 종래의 의료 영상 분석 기술은, 의료 영상 내에 이미지 세그멘테이션에 적합하지 않은 아티팩트(Artifact)가 포함되어 있는 등 의료 영상 자체에 오류가 존재함에 따른 여러 제약을 안고 있으며, 의료 영상이 획득된 스캔 조건에 따라 동일한 대상체에 대한 진단 보조 정보가 상이할 수 있다는 한계점을 가지고 있다. 또한, 종래의 의료 영상 분석 기술은, 의료 영상에 포함된 뇌를 표준 뇌 모델에 대하여 표준화한 이후에 이미지 세그멘테이션을 수행하는 방식을 사용하여, 대상체에 대하여 완전히 "개인화"된 진단 보조 정보를 제공할 수 없다는 문제점을 가지고 있어 높은 정확도가 요구되는 상황에서는 한계점을 가지고 있는 상황이다.However, the conventional medical image analysis technology has several limitations due to the presence of errors in the medical image itself, such as artifacts that are not suitable for image segmentation in the medical image. Accordingly, there is a limitation that diagnostic auxiliary information for the same object may be different. In addition, the conventional medical image analysis technology uses a method of performing image segmentation after standardizing a brain included in a medical image with respect to a standard brain model to provide completely “personalized” diagnostic auxiliary information for an object. It has the problem of not being able to do it, so it has limitations in situations where high accuracy is required.
이에, 이미지에 노이즈가 포함된 경우라 할지라도 판단 가능한 진단 정보의 경우 사용자에게 제공할 수 있도록 하는 이미지 분석 방법 및 장치의 개발이 요구된다. 의료 영상이 촬영된 스캔 조건을 고려하여 진단 보조 정보를 획득하고 대상체에 대하여 개인화된 진단 보조 정보를 획득하기 위한 이미지 분석 방법 및 장치의 개발이 요구된다.Accordingly, there is a need to develop an image analysis method and apparatus capable of providing identifiable diagnostic information to a user even when noise is included in the image. There is a need to develop an image analysis method and apparatus for obtaining diagnostic auxiliary information in consideration of a scan condition in which a medical image is captured and for obtaining personalized diagnostic auxiliary information for an object.
본 발명의 일 과제는, 뇌 영상과 관련된 정보를 제공하는 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템을 제공하는 것이다.An object of the present invention is to provide a brain image analysis method, a brain image analysis apparatus, and a brain image analysis system that provide information related to a brain image.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned problems, and the problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. .
본 출원에 개시된 뇌 영상 분석 방법은, 제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득함; 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득함; 타겟 뇌 영상을 획득함; 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득함; 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득함; 및 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득함;을 포함할 수 있다.The brain image analysis method disclosed in the present application includes: obtaining a first correction parameter for correcting a first morphological value related to a first brain element; obtaining a second correction parameter for correcting a second morphological value associated with a second brain element different from the first brain element; acquiring a target brain image; The first region by segmenting the target brain image into a plurality of brain regions including a first region corresponding to the first brain element, a second region corresponding to the second brain element, and a skull region; obtaining a third region associated with the second region and an inner region of the cranial region; acquiring a first brain morphological index related to the first brain element based on voxel data corresponding to the first region, voxel data corresponding to the third region, and the first correction parameter; and obtaining a second brain morphological index related to the second brain element based on voxel data corresponding to the second region, voxel data corresponding to the third region, and the second correction parameter. have.
본 출원에 개시된 뇌 영상 분석 장치는, 타겟 뇌 영상을 획득하는 영상 획득부; 및 상기 타겟 뇌 영상에 기초하여 뇌 영상 분석 정보를 제공하는 컨트롤러;를 포함하되, 상기 컨트롤러는, 제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득하고, 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득하고, 타겟 뇌 영상을 획득하고, 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득하고, 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득하고, 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득하도록 구성될 수 있다.The brain image analysis apparatus disclosed in the present application includes: an image acquisition unit for acquiring a target brain image; and a controller providing brain image analysis information based on the target brain image, wherein the controller obtains a first correction parameter for correcting a first morphological value related to a first brain element, Obtaining a second correction parameter for correcting a second morphological value related to a second brain element different from a brain element, obtaining a target brain image, and applying the target brain image to a first region corresponding to the first brain element , a third region associated with the first region, the second region, and an inner region of the cranial region by performing segmentation into a plurality of brain regions including a second region corresponding to the second brain element and a cranial region obtaining a first brain morphological index related to the first brain element based on voxel data corresponding to the first region, voxel data corresponding to the third region, and the first correction parameter, and and acquire a second brain morphological index related to the second brain element based on voxel data corresponding to the second region, voxel data corresponding to the third region, and the second correction parameter.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Solutions of the present invention are not limited to the above-described solutions, and solutions not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. will be able
본 출원의 실시예에 의하면, 대상 의료 이미지에 대한 퀄리티 분석을 수행하며 그 분석 결과에 대한 정보를 사용자에게 제공하여 의료 이미지 분석 결과에 대한 신뢰도를 높일 수 있다. According to the embodiment of the present application, it is possible to increase the reliability of the medical image analysis result by performing quality analysis on the target medical image and providing information on the analysis result to the user.
본 출원의 실시예에 의하면, 대상체의 의료 이미지에 기반하여 형태학적 지표를 산출하며 의료 이미지가 획득된 스캔 조건 혹은 타겟 요소의 위치를 고려하여 보정 파라미터를 적절하게 적용함으로써 보다 정확하게 형태학적 지표를 산출할 수 있다. According to the embodiment of the present application, the morphological index is calculated based on the medical image of the object, and the morphological index is more accurately calculated by appropriately applying the correction parameter in consideration of the scan condition in which the medical image is obtained or the position of the target element. can do.
본 출원의 실시예에 의하면, 대상 의료 이미지의 분석을 통해 획득되는 다양한 지표 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공하여 사용자 편의를 증진시킬 수 있다.According to the embodiment of the present application, user convenience can be improved by selectively providing the necessary index information to the user from among various index information obtained through the analysis of the target medical image.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and the effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings.
도 1은 본 출원의 일 실시예에 따른 의료 이미지 분석 시스템에 관한 개략도이다.
도 2는 본 출원의 일 실시예에 따른 이미지 분석을 위한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 출력 장치(2600)의 개략도이다
도 3은 본 출원의 일 실시예에 따른 이미지 분석 장치에 관한 블록도이다.
도 4는 본 출원의 일 실시예에 따른 출력 장치의 블록도이다.
도 5는 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.
도 6은 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.
도 7은 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 8은 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법에 대한 순서도이다.
도 9는 본 출원의 일 실시예에 따른 이미지 데이터 세트의 예시적인 구조도이다.
도 10은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 일 예이다.
도 11은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 다른 예이다.
도 12는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 방법에 대한 순서도이다.
도 13은 본 출원의 일 실시예에 따른 대상 이미지의 예시적인 구조도이다.
도 14는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 세그멘테이션 프로세스에 의해 획득된 결과값에 기초하여 획득된 이미지의 예시들이다.
도 15는 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 16은 본 출원의 일 실시예에 따른 이미지 데이터 세트들의 예시적인 구조도이다.
도 17은 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다.
도 18은 일 실시예에 따른 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 19는 이미지 품질 판단 프로세스를 수행하는 이미지 분석 장치를 설명하기 위한 도면이다.
도 20은 이미지 품질 판단 모듈을 설명하기 위한 도면이다.
도 21은 제1 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 22는 제1 이미지 품질 판단부를 설명하기 위한 도면이다.
도 23은 제2 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 24는 제2 이미지 품질 판단 프로세스가 인공 신경망 모델을 이용하여 의료 이미지 내의 아티팩트 발생 위치를 판단하는 것을 예시적으로 설명하기 위한 도면이다.
도 25는 일 실시예에 따른 아티팩트 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다.
도 26은 제3 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 27은 제3 이미지 품질 판단 프로세스의 일 실시예를 설명하기 위한 도면이다.
도 28은 제4 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.
도 29는 아티팩트가 발생한 이미지를 예시하기 위한 도면이다.
도 30는 다른 실시예에 따른 제4 이미지 품질 판단 프로세스에서 아티팩트가 관심 영역과 중첩되어 발생되었는지 판단하는 것을 설명하기 위한 도면이다.
도 31은 일 실시예에 따른 이미지 품질 관련 정보 출력 모듈을 설명하기 위한 도면이다.
도 32는 제1 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 33 및 도 34는 제2 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 35 및 도36는 제3 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 37 및 도 38은 제4 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.
도 39는 이미지 품질 관련 정보 출력 모듈(3900)이 출력하는 선택창을 예시적으로 설명하기 위한 도면이다.
도 40는 이미지 품질 관련 정보 출력 모듈(3900)이 출력하는 선택창을 예시적으로 설명하기 위한 도면이다.
도 41 내지 도 43은 제1 내지 제3 품질 판단 프로세스를 설명하기 위한 도면이다.
도 44 및 도 45는 제4 품질 판단 프로세스를 설명하기 위한 도면이다.
도 46 및 도 47은 제5 품질 판단 프로세스를 설명하기 위한 도면이다.
도 48은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 분석 방법의 일 동작을 도시한 흐름도이다.
도 49는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 정렬 방법의 예시적인 도면이다.
도 50은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도이다.
도 51은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 일 예를 도시한 도면이다.
도 52는 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법에 따라 획득된 제2 내부영역의 일 예를 도시한 도면이다.
도 53은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 다른 예를 도시한 도면이다.
도 54 내지 도 57은 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들을 도시한 예시적인 도면이다.
도 58은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 형태학적 수치의 보정 방법을 일 동작을 도시한 흐름도이다.
도 59는 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도이다.
도 60은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 구현되는 보정 파라미터의 획득 방법의 일 동작을 도시한 흐름도이다.
도 61은 본 출원의 일 실시예에 따른 복수의 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다.
도 62는 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 일 예를 도시한 그래프이다.
도 63은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 다른 예를 도시한 그래프이다.
도 64는 본 출원의 일 실시예에 따른 복수의 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다.
도 65는 본 출원의 일 실시예에 따른 타겟 요소가 두개골 내에 분포하는 위치에 따른 형태학적 값들 간의 상관관계 분석의 예시적인 도면이다.
도 66은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도이다.
도 67은 본 출원의 일 실시예에 따른 유저 인터페이스를 개략화한 도면이다.
도 68은 일 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.
도 69는 일 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.
도 70은 의료 데이터 획득 모듈을 설명하기 위한 도면이다.
도 71은 의료 정보 획득 모듈을 설명하기 위한 도면이다.
도 72는 진단 보조 정보 획득 모듈을 설명하기 위한 도면이다.
도 73는 진단 보조 정보 출력 모듈을 설명하기 위한 도면이다.
도 74는 몇몇 대상 질병에 대하여, 관련된 지표를 예시하기 위한 도면이다.
도 75는 일 실시예에 따른 의료 정보 출력 화면을 설명하기 위한 도면이다.
도 76는 다른 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.
도 77은 다른 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.
도 78은 선별 정보 획득 모듈을 설명하기 위한 도면이다.
도 79은 선별 정보 출력 모듈을 설명하기 위한 도면이다.
도 80 및 도 81은 선별 정보 출력 화면을 설명하기 위한 도면이다.1 is a schematic diagram of a medical image analysis system according to an embodiment of the present application.
2 is a schematic diagram of an
3 is a block diagram of an image analysis apparatus according to an embodiment of the present application.
4 is a block diagram of an output device according to an embodiment of the present application.
5 illustrates an example of an image alignment operation of the
6 illustrates an example of an image alignment operation of the
7 is a diagram illustrating a flowchart of a process for image segmentation according to an embodiment of the present application.
8 is a flowchart of a learning method of a neural network model of the
9 is an exemplary structural diagram of an image data set according to an embodiment of the present application.
10 is an example of an artificial neural network model that can be used by the
11 is another example of an artificial neural network model that can be used by the
12 is a flowchart of an image segmentation method using a neural network model of the
13 is an exemplary structural diagram of a target image according to an embodiment of the present application.
14 is an example of images obtained based on a result value obtained by a segmentation process of the
15 is a diagram illustrating a flowchart of a process for image segmentation according to an embodiment of the present application.
16 is an exemplary structural diagram of image data sets according to an embodiment of the present application.
17 is a diagram illustrating a flowchart of a process for image segmentation according to an embodiment of the present application.
18 is a diagram for describing an image quality determination process according to an embodiment.
19 is a diagram for explaining an image analysis apparatus that performs an image quality determination process.
20 is a diagram for explaining an image quality determination module.
21 is a diagram for explaining a first image quality determination process.
22 is a diagram for describing a first image quality determining unit.
23 is a diagram for explaining a second image quality determination process.
24 is a diagram for exemplarily explaining that the second image quality determination process determines the location of the artifact in the medical image using the artificial neural network model.
25 is a diagram for describing a neural network model for acquiring artifact information according to an embodiment.
26 is a diagram for explaining a third image quality determination process.
27 is a diagram for explaining an embodiment of a third image quality determination process.
28 is a diagram for explaining a fourth image quality determination process.
29 is a diagram illustrating an image in which an artifact has occurred.
30 is a diagram for explaining determining whether an artifact is generated to overlap an ROI in a fourth image quality determination process according to another exemplary embodiment;
31 is a diagram for describing an image quality related information output module according to an exemplary embodiment.
32 is a diagram for exemplarily explaining a first error information screen.
33 and 34 are diagrams for exemplarily explaining the second error information screen.
35 and 36 are diagrams for exemplarily explaining a third error information screen.
37 and 38 are diagrams for exemplarily explaining a fourth error information screen.
FIG. 39 is a diagram for exemplarily explaining a selection window output by the image quality related
40 is a diagram for illustratively explaining a selection window output by the image quality related
41 to 43 are diagrams for explaining first to third quality determination processes.
44 and 45 are diagrams for explaining a fourth quality determination process.
46 and 47 are diagrams for explaining a fifth quality determination process.
48 is a flowchart illustrating an operation of an image analysis method implemented by the
49 is an exemplary diagram of an image alignment method implemented by the
50 is a flowchart of an image analysis method according to an embodiment of the present application.
51 is a diagram illustrating an example of a method of correcting the first boundary of the first inner region of the skull according to an embodiment of the present application.
52 is a diagram illustrating an example of a second internal region obtained according to a method of correcting a first boundary of a first internal region of a skull according to an embodiment of the present application.
53 is a diagram illustrating another example of a method of correcting the first boundary of the first inner region of the skull according to an embodiment of the present application.
54 to 57 are exemplary views illustrating information related to a morphological index output according to an embodiment of the present application.
58 is a flowchart illustrating an operation of a morphological numerical correction method implemented by the
59 is a flowchart of an image analysis method according to an embodiment of the present application.
60 is a flowchart illustrating an operation of a method of obtaining a correction parameter implemented by the
61 is an exemplary diagram for describing information included in a plurality of image data sets according to an embodiment of the present application.
62 is a graph illustrating an example of correlation analysis for acquiring a correction parameter of the correction
63 is a graph illustrating another example of correlation analysis for obtaining a correction parameter of the
64 is an exemplary diagram for describing information included in a plurality of image data sets according to an embodiment of the present application.
65 is an exemplary diagram of correlation analysis between morphological values according to a location where a target element is distributed in a skull according to an embodiment of the present application.
66 is a flowchart of an image analysis method according to an embodiment of the present application.
67 is a diagram schematically illustrating a user interface according to an embodiment of the present application.
68 is a diagram for describing a medical information output process according to an embodiment.
69 is a diagram for describing an image analysis apparatus according to an exemplary embodiment.
70 is a diagram for explaining a medical data acquisition module.
71 is a diagram for explaining a medical information acquisition module.
72 is a diagram for describing a diagnostic auxiliary information obtaining module.
73 is a diagram for explaining a diagnostic auxiliary information output module.
74 is a diagram for illustrating related indicators for some target diseases.
75 is a diagram for explaining a medical information output screen according to an exemplary embodiment.
76 is a diagram for explaining a medical information output process according to another embodiment.
77 is a diagram for explaining an image analysis apparatus according to another embodiment.
78 is a diagram for explaining a selection information obtaining module.
79 is a diagram for explaining a selection information output module.
80 and 81 are diagrams for explaining a selection information output screen.
본 출원의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 출원은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다.The above-described objects, features and advantages of the present application will become more apparent from the following detailed description in conjunction with the accompanying drawings. However, since the present application may have various changes and may have various embodiments, specific embodiments will be exemplified in the drawings and described in detail below.
명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명하며, 이에 대한 중복되는 설명은 생략하기로 한다.Throughout the specification, like reference numerals refer to like elements in principle. In addition, components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described using the same reference numerals, and overlapping descriptions thereof will be omitted.
본 출원과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 출원의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.If it is determined that a detailed description of a known function or configuration related to the present application may unnecessarily obscure the gist of the present application, the detailed description thereof will be omitted. In addition, numbers (eg, first, second, etc.) used in the description process of the present specification are only identification symbols for distinguishing one component from other components.
또한, 이하의 실시예에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for the components used in the following embodiments are given or mixed in consideration of only the ease of writing the specification, and do not have a meaning or role distinct from each other by themselves.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In the following examples, the singular expression includes the plural expression unless the context clearly dictates otherwise.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다.In the following embodiments, terms such as include or have means that the features or components described in the specification are present, and the possibility of adding one or more other features or components is not excluded in advance.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타낸 것으로, 본 발명이 반드시 도시된 바에 한정되지 않는다.In the drawings, the size of the components may be exaggerated or reduced for convenience of description. For example, the size and thickness of each component shown in the drawings are arbitrarily indicated for convenience of description, and the present invention is not necessarily limited to the illustrated bar.
어떤 실시예가 달리 구현 가능한 경우에 특정한 프로세스의 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 프로세스가 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다.In cases where certain embodiments are otherwise implementable, the order of specific processes may be performed differently from the order in which they are described. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the order described.
이하의 실시예에서, 구성 요소 등이 연결되었다고 할 때, 구성 요소들이 직접적으로 연결된 경우뿐만 아니라 구성요소들 중간에 구성 요소들이 개재되어 간접적으로 연결된 경우도 포함한다.In the following embodiments, when components are connected, it includes not only cases in which components are directly connected but also cases in which components are interposed between components and connected indirectly.
예컨대, 본 명세서에서 구성 요소 등이 전기적으로 연결되었다고 할 때, 구성 요소 등이 직접 전기적으로 연결된 경우뿐만 아니라, 그 중간에 구성 요소 등이 개재되어 간접적으로 전기적 연결된 경우도 포함한다.For example, in the present specification, when it is said that a component is electrically connected, it includes not only a case in which the component is directly electrically connected, but also a case in which a component is interposed in the middle and electrically connected indirectly.
본 출원의 일 실시예에 따른 의료 이미지 분석 방법에 있어서, 상기 방법은, 적어도 하나의 아티팩트를 포함하는 대상 의료 이미지를 획득하는 단계; 상기 대상 의료 이미지에 기초하여, 상기 아티팩트와 관련된 아티팩트 정보를 획득하는 단계- 상기 아티팩트 정보는 상기 아티팩트가 분포하는 영역을 나타내는 아티팩트 영역을 포함함 -; 제1 신경망 모델을 이용하여, 상기 대상 의료 이미지에 기초하여, 해부학적으로 구분되는 하나 이상의 요소에 각각 대응되는 복수의 영역을 획득하는 단계- 상기 제1 신경망 모델은, 의료 이미지에 기초하여 상기 복수의 영역을 획득하도록 학습되고, 상기 복수의 영역은 제1 요소에 대응되는 제1 영역, 제2 요소에 대응되는 제2 영역 및 제3 요소에 대응되는 제3 영역을 포함함 -; 상기 아티팩트 영역과 관심 영역의 중첩 정도를 획득하는 단계- 상기 관심 영역은 상기 제1 영역의 적어도 일부를 포함함-; 상기 중첩 정도에 기초하여 상기 대상 의료 이미지의 품질 판단을 수행하는 제1 품질 판단 단계; 및 상기 제1 품질 판단에 기초하여, 상기 대상 의료 이미지의 품질 관련 정보를 출력하는 단계를 포함할 수 있다.In a medical image analysis method according to an embodiment of the present application, the method includes: acquiring a target medical image including at least one artifact; obtaining artifact information related to the artifact, based on the target medical image, wherein the artifact information includes an artifact region indicating a region in which the artifact is distributed; Using a first neural network model, based on the target medical image, obtaining a plurality of regions each corresponding to one or more anatomically distinguished elements - The first neural network model includes the plurality of regions based on the medical image is learned to obtain a region of , wherein the plurality of regions include a first region corresponding to the first element, a second region corresponding to the second element, and a third region corresponding to the third element; obtaining a degree of overlap between the artifact region and a region of interest, wherein the region of interest includes at least a portion of the first region; a first quality determination step of determining the quality of the target medical image based on the overlapping degree; and outputting quality-related information of the target medical image based on the first quality determination.
상기 제1 요소는 두개골이고, 상기 제1 영역은 상기 두개골에 대응되는 영역을 포함하되, 상기 관심 영역은 상기 두개골 영역 또는 두개골의 내부 영역일 수 있다.The first element is a skull, and the first region includes a region corresponding to the skull, wherein the region of interest may be the skull region or an inner region of the skull.
상기 제2 요소는 대상 질병의 진단과 관련된 요소이고, 상기 관심 영역은 상기 제2 영역의 적어도 일부를 포함할 수 있다.The second element may be an element related to diagnosis of a target disease, and the region of interest may include at least a portion of the second region.
상기 아티팩트 영역은, 상기 의료 이미지에 아티팩트가 존재하는지 여부를 판단하도록 학습된 제2 신경망 모델을 이용하여 획득되되, 상기 아티팩트 영역은, 상기 제2 신경망 모델로부터 획득되고 상기 대상 의료 이미지에 존재하는 대상 아티팩트와 관련된 특징맵에 기초하여, 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 기준값 이상인 영역일 수 있다.The artifact region is obtained using a second neural network model trained to determine whether an artifact is present in the medical image, wherein the artifact region is obtained from the second neural network model and is a target present in the target medical image. Based on the feature map related to the artifact, the relevance to the target artifact on the feature map may be a region equal to or greater than a reference value.
상기 아티팩트 영역은, 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함하되, 상기 제1 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역이고, 상기 제2 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 상기 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.The artifact area includes a first area and a second area positioned within the first area, wherein the first area is an area on the feature map that has a relevance to the target artifact equal to or greater than a first reference value, and the second area may be an area on the feature map that has a relevance to the target artifact equal to or greater than a second reference value greater than the first reference value.
상기 아티팩트 영역은, 상기 의료 이미지에 포함되는 상기 아티팩트에 대응되는 영역을 세그멘테이션 하도록 학습된 제2 신경망 모델을 이용하여 획득될 수 있다.The artifact region may be obtained using a second neural network model trained to segment a region corresponding to the artifact included in the medical image.
상기 중첩 정도를 판단하는 단계는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역의 외곽 라인 및 상기 관심 영역의 외곽 라인을 획득하고, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 의료 이미지 상에서 중첩되는지 여부에 기초하여, 상기 아티팩트와 상기 관심 영역의 중첩 여부를 판단하는 것을 포함할 수 있다.The determining of the degree of overlap may include acquiring an outer line of the artifact area and an outer line of the ROI from the target medical image, and the outer line of the artifact area and the outer line of the ROI on the medical image and determining whether the artifact and the region of interest overlap, based on whether they overlap.
상기 제1 품질 판단 단계는, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 대상 의료 이미지 상에서 중첩되는 교차점이 2개 미만인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단하고, 상기 교차점이 2개 이상인 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단하는 것을 포함할 수 있다.The first quality determination step may include determining that the quality of the target medical image is normal when there are less than two intersections between the outer line of the artifact area and the outer line of the ROI overlapping on the target medical image, and the intersection is In the case of two or more, it may include determining that the quality of the target medical image is abnormal.
상기 중첩 정도를 판단하는 단계는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역 및 상기 관심 영역에 모두 포함되는 공통 픽셀의 수를 획득하는 단계; 및 상F기 공통 픽셀의 수를 이용하여 상기 아티팩트와 상기 관심 영역의 중첩 정도를 판단하는 단계를 포함할 수 있다.The determining of the degree of overlap may include: obtaining, on the target medical image, the number of common pixels included in both the artifact region and the region of interest; and determining a degree of overlap between the artifact and the region of interest by using the number of common pixels.
상기 제1 품질 판단 단계는, 상기 공통 픽셀수가 미리 정해진 기준 값을 초과하는 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단하고, 상기 공통 픽셀수가 미리 정해진 기준 값 이하인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단하는 것을 포함할 수 있다.In the first quality determination step, it is determined that the quality of the target medical image is abnormal when the number of common pixels exceeds a predetermined reference value, and when the number of common pixels is less than or equal to a predetermined reference value, the quality of the target medical image is normal It may include judging that
상기 제3 영역에 기초하여 상기 대상 의료 이미지의 품질 판단을 수행하는 제2 품질 판단 단계를 더 포함하되, 상기 제2 품질 판단 단계는, 상기 제3 영역에 기초하여 형태학적 지표를 획득하는 단계 및 상기 형태학적 지표가 정량적인 기준을 만족하는지 판단하는 단계를 포함할 수 있다.A second quality determination step of determining the quality of the target medical image based on the third area, wherein the second quality determination step includes: obtaining a morphological index based on the third area; The method may include determining whether the morphological index satisfies a quantitative criterion.
상기 형태학적 지표는 상기 제1 영역 및 상기 제3 영역에 기초하여 획득될 수 있다.The morphological index may be obtained based on the first region and the third region.
상기 형태학적 지표는 상기 제1 영역의 부피와 상기 제3 영역의 부피의 비율에 기초하여 획득될 수 있다.The morphological index may be obtained based on a ratio of a volume of the first region to a volume of the third region.
상기 제3 영역은 상기 대상 의료 이미지의 가장 하단에 위치하는 요소에 대응되는 영역일 수 있다.The third region may be a region corresponding to an element positioned at the bottom of the target medical image.
상기 제3 영역은 대상 질병의 진단과 관련된 요소에 대응되는 영역일 수 있다.The third region may be a region corresponding to an element related to diagnosis of a target disease.
상기 의료 이미지의 품질 관련 정보를 출력하는 단계는, 상기 제1 품질 판단에 기초하여 생성된 에러 정보 및 상기 에러 정보와 관련된 선택창을 표시하는 것을 포함하되, 상기 에러 정보는 상기 아티팩트 정보 및 상기 복수의 영역에 관한 정보를 포함할 수 있다.The outputting the quality-related information of the medical image includes displaying error information generated based on the first quality determination and a selection window related to the error information, wherein the error information includes the artifact information and the plurality of pieces of information. It may contain information about the area of
상기 선택창은 제1 오브젝트를 포함하고, 상기 의료 이미지 분석 방법은 상기 제1 오브젝트에 대한 사용자의 선택에 따라 후속 동작을 진행하는 것을 포함하되, 상기 후속 동작은, 상기 대상 의료 이미지 분석 동작, 상기 대상 의료 이미지를 보정하는 동작 또는 상기 대상 의료 이미지를 재 촬영하는 동작 중 어느 하나를 포함할 수 있다.The selection window includes a first object, and the method for analyzing a medical image includes performing a subsequent operation according to a user's selection of the first object, wherein the subsequent operation includes: the target medical image analysis operation; It may include any one of an operation of correcting a target medical image or an operation of re-photographing the target medical image.
본 출원의 다른 실시예에 따른 의료 이미지 분석 장치는, 의료 이미지를 획득하는 획득부; 상기 의료 이미지에 기초하여 이미지 품질 정보를 획득하는 처리부; 및 상기 이미지 품질 정보를 출력하는 출력부;를 포함하되, 상기 처리부는, 상기 획득부를 통하여, 아티팩트를 포함하는 대상 의료 이미지를 획득하고, 상기 대상 의료 이미지에 기초하여 상기 아티팩트와 관련된 아티팩트 정보를 획득하고- 상기 아티팩트 정보는 상기 아티팩트가 분포하는 영역을 나타내는 아티팩트 영역을 포함함 -, 제1 신경망 모델을 이용하여, 상기 대상 의료 이미지에 기초하여, 해부학적으로 구분되는 하나 이상의 요소에 각각 대응되는 복수의 영역을 획득하고- 상기 제1 신경망 모델은, 상기 의료 이미지에 기초하여 상기 복수의 영역을 획득하도록 학습되고, 상기 복수의 영역은 제1 요소에 대응되는 제1 영역, 제2 요소에 대응되는 제2 영역 및 제3 요소에 대응되는 제3 영역을 포함함 -, 상기 아티팩트 영역과 관심 영역의 중첩 정도를 획득하고- 상기 관심 영역은 상기 제1 영역의 적어도 일부를 포함함 -, 상기 중첩 정도에 기초하여 상기 대상 의료 이미지의 제1 품질 판단을 수행하고, 상기 출력부는 상기 제1 품질 판단에 기초하여 상기 대상 의료 이미지의 품질 관련 정보를 출력할 수 있다.An apparatus for analyzing a medical image according to another embodiment of the present application includes: an acquisition unit configured to acquire a medical image; a processing unit configured to obtain image quality information based on the medical image; and an output unit for outputting the image quality information, wherein the processing unit acquires a target medical image including an artifact through the acquiring unit, and acquires artifact information related to the artifact based on the target medical image and - the artifact information includes an artifact area indicating a region in which the artifact is distributed; obtain a region of - the first neural network model is trained to acquire the plurality of regions based on the medical image, wherein the plurality of regions are a first region corresponding to a first element and a first region corresponding to a second element including a second region and a third region corresponding to a third element, obtaining an overlapping degree of the artifact region and a region of interest, wherein the region of interest includes at least a portion of the first region, the overlapping degree may perform a first quality determination of the target medical image based on , and the output unit may output quality-related information of the target medical image based on the first quality determination.
상기 제1 요소는 두개골이고, 상기 제1 영역은 상기 두개골에 대응되는 영역을 포함하되, 상기 관심 영역은 상기 두개골 영역 또는 두개골의 내부 영역일 수 있다.The first element is a skull, and the first region includes a region corresponding to the skull, wherein the region of interest may be the skull region or an inner region of the skull.
상기 제2 요소는 대상 질병의 진단과 관련된 요소이고, 상기 관심 영역은 상기 제2 영역의 적어도 일부를 포함할 수 있다.The second element may be an element related to diagnosis of a target disease, and the region of interest may include at least a portion of the second region.
상기 아티팩트 영역은, 상기 의료 이미지에 아티팩트가 존재하는지 여부를 판단하도록 학습된 제2 신경망 모델을 이용하여 획득되되, 상기 아티팩트 영역은, 상기 제2 신경망 모델로부터 획득되고 상기 대상 의료 이미지에 존재하는 대상 아티팩트와 관련된 특징맵에 기초하여, 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 기준값 이상인 영역일 수 있다.The artifact region is obtained using a second neural network model trained to determine whether an artifact is present in the medical image, wherein the artifact region is obtained from the second neural network model and is a target present in the target medical image. Based on the feature map related to the artifact, the relevance to the target artifact on the feature map may be a region equal to or greater than a reference value.
상기 아티팩트 영역은, 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함하되, 상기 제1 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역이고, 상기 제2 영역은 상기 특징맵 상에서 상기 대상 아티팩트와의 관련성이 상기 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.The artifact area includes a first area and a second area positioned within the first area, wherein the first area is an area on the feature map that has a relevance to the target artifact equal to or greater than a first reference value, and the second area may be an area on the feature map that has a relevance to the target artifact equal to or greater than a second reference value greater than the first reference value.
상기 아티팩트 영역은, 상기 의료 이미지에 포함되는 상기 아티팩트에 대응되는 영역을 세그멘테이션 하도록 학습된 제2 신경망 모델을 이용하여 획득될 수 있다.The artifact region may be obtained using a second neural network model trained to segment a region corresponding to the artifact included in the medical image.
상기 처리부는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역의 외곽 라인 및 상기 관심 영역의 외곽 라인을 획득하고, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 의료 이미지 상에서 중첩되는지 여부에 기초하여, 상기 아티팩트와 상기 관심 영역의 중첩 여부를 판단할 수 있다.The processing unit may be configured to obtain an outer line of the artifact region and an outer line of the ROI from the target medical image, and based on whether the outer line of the artifact region and the outer line of the ROI overlap on the medical image Thus, it may be determined whether the artifact and the region of interest overlap.
상기 처리부는, 상기 아티팩트 영역의 외곽 라인과 상기 관심 영역의 외곽 라인이 상기 대상 의료 이미지 상에서 중첩되는 교차점이 2개 미만인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단하고, 상기 교차점이 2개 이상인 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단할 수 있다.The processing unit is configured to determine that the quality of the target medical image is normal when there are less than two intersections between the outer line of the artifact area and the outer line of the ROI overlapping on the target medical image. It may be determined that the quality of the target medical image is abnormal.
상기 처리부는, 상기 대상 의료 이미지 상에서, 상기 아티팩트 영역 및 상기 관심 영역에 모두 포함되는 공통 픽셀의 수를 획득하고, 상기 공통 픽셀의 수를 이용하여 상기 아티팩트와 상기 관심 영역의 중첩 정도를 판단할 수 있다.The processing unit may obtain, on the target medical image, the number of common pixels included in both the artifact region and the region of interest, and determine a degree of overlap between the artifact and the region of interest by using the number of common pixels. have.
상기 처리부는, 상기 공통 픽셀수가 미리 정해진 기준 값을 초과하는 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단하고, 상기 공통 픽셀수가 미리 정해진 기준 값 이하인 경우 상기 대상 의료 이미지의 품질이 정상이라고 판단할 수 있다.The processing unit may determine that the quality of the target medical image is abnormal when the number of common pixels exceeds a predetermined reference value, and determine that the quality of the target medical image is normal when the number of common pixels is less than or equal to a predetermined reference value have.
상기 처리부는, 상기 제3 영역에 기초하여 형태학적 지표를 획득하고, 상기 형태학적 지표가 정량적인 기준을 만족하는지에 기초하여 제2 품질 판단을 수행할 수 있다.The processing unit may obtain a morphological index based on the third region, and perform a second quality determination based on whether the morphological index satisfies a quantitative criterion.
상기 형태학적 지표는 상기 제1 영역 및 상기 제3 영역에 기초하여 획득될 수 있다.The morphological index may be obtained based on the first region and the third region.
상기 형태학적 지표는 상기 제1 영역의 부피와 상기 제3 영역의 부피의 비율 기초하여 획득될 수 있다.The morphological index may be obtained based on a ratio of a volume of the first region to a volume of the third region.
상기 제3 영역은 상기 대상 의료 이미지의 가장 하단에 위치하는 요소에 대응되는 영역일 수 있다.The third region may be a region corresponding to an element positioned at the bottom of the target medical image.
상기 제3 영역은 대상 질병의 진단과 관련된 요소에 대응되는 영역일 수 있다.The third region may be a region corresponding to an element related to diagnosis of a target disease.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 복셀 데이터를 포함하는 뇌 영상을 획득함; 상기 뇌 영상을 두개골 영역 및 레퍼런스 영역을 포함하는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 두개골 영역의 내부인 제1 내부 영역을 정의하는 제1 바운더리 및 상기 레퍼런스 영역을 획득함; 상기 레퍼런스 영역에 기초하여 상기 제1 내부 영역과 관련된 상기 제1 바운더리의 적어도 일부를 수정함으로써 제2 바운더리를 갖는 제2 내부 영역을 획득함- 상기 제2 내부 영역의 일부는 상기 제1 내부 영역에 포함되며 상기 타겟 요소를 포함함-; 상기 타겟 요소에 대응되는 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 제1 체적 값을 획득함; 상기 제2 바운더리에 포함된 복셀 데이터에 기초하여 상기 제2 내부 영역과 관련된 제2 체적 값을 획득함; 상기 제1 체적 값 및 상기 제2 체적 값에 기초하여 상기 타겟 요소의 체적 지표를 계산함;을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, a brain image including voxel data is obtained; obtaining the reference region and a first boundary defining a first internal region that is inside the cranial region by segmenting the brain image into a plurality of regions including a cranial region and a reference region; obtaining a second inner region having a second boundary by modifying at least a portion of the first boundary associated with the first inner region based on the reference region, a portion of the second inner region being in the first inner region included and comprising the target element; obtaining a first volume value associated with the target element based on voxel data corresponding to the target element; obtaining a second volume value related to the second inner region based on voxel data included in the second boundary; and calculating a volume index of the target element based on the first volume value and the second volume value.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하기 위하여 상기 뇌 영상을 정렬함;을 더 포함할 수 있다. According to the brain image analysis method disclosed in the present application, the method may further include aligning the brain image to obtain the second internal region.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 뇌 영상을 정렬하는 것은, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득함;According to the brain image analysis method disclosed in the present application, aligning the brain image may include: acquiring a first feature region and a second feature region from the brain image;
상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출함; 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 뇌 영상의 촬영 방향을 획득함; 및 상기 촬영 방향이 기준 방향과 평행하도록 상기 뇌 영상을 정렬함;을 포함할 수 있다. calculating a first feature point from the first feature region and calculating a second feature point from the second feature region; obtaining a photographing direction of the brain image based on the first feature point and the second feature point; and aligning the brain image so that the photographing direction is parallel to a reference direction.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 특징 영역은 전측 교련(anterior commissure)에 대응되는 영역이며, 상기 제2 특징 영역은 후측 교련(posterior commissure)에 대응되는 영역이며, 상기 제1 특징점은 상기 전측 교련에 대응되는 영역을 정의하는 바운더리에 포함되며, 상기 제2 특징점은 상기 후측 교련에 대응되는 영역을 정의하는 바운더리에 포함될 수 있다.According to the brain image analysis method disclosed in the present application, the first characteristic region is a region corresponding to an anterior commissure, and the second characteristic region is a region corresponding to a posterior commissure, and the first The feature point may be included in a boundary defining a region corresponding to the anterior commissure, and the second feature point may be included in a boundary defining a region corresponding to the posterior commissure.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 뇌 영상을 정렬하는 것은, 상기 뇌 영상에 포함된 상기 뇌 영상의 방향과 관련된 데이터를 획득함; 상기 뇌 영상의 방향과 관련된 데이터에 기초하여 상기 뇌 영상의 촬영 방향을 획득함; 및 상기 촬영 방향이 기준 방향에 대응하도록 상기 뇌 영상을 정렬함;을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, aligning the brain image may include: acquiring data related to a direction of the brain image included in the brain image; obtaining a photographing direction of the brain image based on data related to the direction of the brain image; and aligning the brain image so that the photographing direction corresponds to a reference direction.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하는 것은, 상기 뇌 영상으로부터 상기 레퍼런스 영역에 인접하는 기준 평면을 획득함; 및 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, acquiring the second internal region may include: acquiring a reference plane adjacent to the reference region from the brain image; and obtaining the second inner area having the second boundary by modifying a part of the first boundary of the first inner area based on the reference plane.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 기준 평면은 상기 뇌 영상의 횡평면(transverse plane)과 평행한 평면이며, 상기 제2 내부 영역을 획득하는 것은, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정함; 및 상기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, the reference plane is a plane parallel to a transverse plane of the brain image, and obtaining the second inner region is an upper side of the reference plane. modifying a portion located below the reference plane of the first boundary based on the first inner region located in ; and obtaining the second inner region having the second boundary based on the modified first boundary.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 레퍼런스 영역은 소뇌에 대응되는 영역이며, 상기 기준 평면은 상기 소뇌의 대응되는 영역을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접할 수 있다.According to the brain image analysis method disclosed in the present application, the reference region may be a region corresponding to the cerebellum, and the reference plane may be adjacent to a lower edge of a boundary defining the corresponding region of the cerebellum.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 레퍼런스 영역은 소뇌에 대응되는 영역이며, 상기 기준 평면은 상기 소뇌의 대응되는 영역을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접할 수 있다.According to the brain image analysis method disclosed in the present application, the reference region may be a region corresponding to the cerebellum, and the reference plane may be adjacent to a lower edge of a boundary defining the corresponding region of the cerebellum.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하는 것은, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득함; 상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출함; 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 제1 특징점 및 상기 제2 특징점을 연결하는 기준 방향을 획득함; 상기 기준 방향에 대하여 평행한 기준 평면을 획득함; 및 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, acquiring the second internal region includes: acquiring a first feature region and a second feature region from the brain image; calculating a first feature point from the first feature region and calculating a second feature point from the second feature region; obtaining a reference direction connecting the first feature point and the second feature point based on the first feature point and the second feature point; obtaining a reference plane parallel to the reference direction; and obtaining the second inner area having the second boundary by modifying a part of the first boundary of the first inner area based on the reference plane.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 레퍼런스 영역은 목뼈에 대응되는 영역이며, 상기 기준 평면은, 상기 목뼈에 대응되는 영역에 인접하며 시상면(sagittal plane)과 수직일 수 있다.According to the brain image analysis method disclosed in the present application, the reference region may be a region corresponding to the cervical vertebra, and the reference plane may be adjacent to the region corresponding to the cervical vertebra and may be perpendicular to a sagittal plane.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제2 내부 영역을 획득하는 것은, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정함; 및 기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함;을 포함할 수 있다.According to the brain image analysis method disclosed in the present application, obtaining the second inner region is based on the first inner region located on the upper side of the reference plane of the reference plane of the first boundary. Corrected the lower part; and obtaining the second inner region having the second boundary based on the modified first boundary.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 체적 지표는 상기 제2 체적 값에 대한 상기 제1 체적 값의 비율로서 정의될 수 있다. According to the brain image analysis method disclosed in the present application, the volume index may be defined as a ratio of the first volume value to the second volume value.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 타겟 요소의 상기 체적 지표를 계산하는 것은, 상기 제1 체적 값을 보정하기 위한 제1 보정 파라미터를 획득함-상기 제1 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-; 및 상기 제1 보정 파라미터 및 상기 제1 체적 값에 기초하여 상기 제1 체적 보정 값을 계산함;을 포함하는 제1 체적 보정 값을 획득함; 상기 제2 체적 값을 보정하기 위한 제2 보정 파라미터를 획득함-상기 제2 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-; 및 상기 제2 보정 파라미터 및 상기 제2 체적 값에 기초하여 상기 제2 체적 보정 값을 계산함;을 포함하는 제2 체적 보정 값을 획득함; 및 상기 제1 체적 보정 값 및 상기 제2 체적 보정 값에 기초하여 상기 체적 지표를 계산함;을 더 포함할 수 있다. According to the brain image analysis method disclosed in the present application, calculating the volume index of the target element obtains a first correction parameter for correcting the first volume value - The first correction parameter determines that the brain image is acquired based on the acquired scan condition or the position of the target element; and calculating the first volume correction value based on the first correction parameter and the first volume value; obtaining a second correction parameter for correcting the second volume value, wherein the second correction parameter is obtained based on a scan condition in which the brain image is obtained or a position of the target element; and calculating the second volume correction value based on the second correction parameter and the second volume value; and calculating the volume index based on the first volume correction value and the second volume correction value.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 뇌 영상이 획득된 스캔 조건은, 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the brain image analysis method disclosed in the present application, the scan conditions under which the brain image is acquired are the magnetic field strength related to the resolution of the brain image of the brain image acquisition device, the manufacturer of the brain image acquisition device, and the brain image acquisition device. It may relate to at least one of the setting parameters related to the shape of the magnetic field to be generated.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 뇌 영상을 획득하는 영상 획득부; 및 상기 뇌 영상에 기초하여 뇌 영상 분석 정보를 제공하는 컨트롤러;를 포함하되, 상기 컨트롤러는, 복셀 데이터를 포함하는 뇌 영상을 획득하고, 상기 뇌 영상을 두개골 영역 및 레퍼런스 영역을 포함하는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 두개골 영역의 내부인 제1 내부 영역을 정의하는 제1 바운더리 및 상기 레퍼런스 영역을 획득하고, 상기 레퍼런스 영역에 기초하여 상기 제1 내부 영역과 관련된 상기 제1 바운더리의 적어도 일부를 수정함으로써 제2 바운더리를 갖는 제2 내부 영역을 획득- 상기 제2 내부 영역의 일부는 상기 제1 내부 영역에 포함되며 상기 타겟 요소를 포함함-하고, 상기 타겟 요소에 대응되는 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 제1 체적 값을 획득하고, 상기 제2 바운더리에 포함된 복셀 데이터에 기초하여 상기 제2 내부 영역과 관련된 제2 체적 값을 획득하고, 상기 제1 체적 값 및 상기 제2 체적 값에 기초하여 상기 타겟 요소의 체적 지표를 계산하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, an image acquisition unit for acquiring a brain image; and a controller that provides brain image analysis information based on the brain image, wherein the controller acquires a brain image including voxel data and uses the brain image to a plurality of regions including a skull region and a reference region By performing segmentation into the cranial regions, a first boundary defining a first internal region that is inside the cranial region and the reference region are obtained, and based on the reference region, at least of the first boundary associated with the first internal region. obtaining a second inner region having a second boundary by modifying a part, wherein a part of the second inner region is included in the first inner region and includes the target element; to obtain a first volume value related to the target element based on the first volume value and to obtain a second volume value related to the second inner region based on voxel data included in the second boundary; and calculate a volume index of the target element based on the two volume values.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제2 내부 영역을 획득하기 위하여 상기 뇌 영상을 정렬하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller may be configured to align the brain image to obtain the second inner region.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득하고, 상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출하고, 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 뇌 영상의 촬영 방향을 획득하고, 상기 촬영 방향이 기준 방향과 평행하도록 상기 뇌 영상을 정렬하여 상기 뇌 영상을 정렬하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller obtains a first feature region and a second feature region from the brain image, calculates a first feature point from the first feature region, and from the second feature region Calculating a second feature point, obtaining a photographing direction of the brain image based on the first characteristic point and the second characteristic point, and aligning the brain image by aligning the brain image so that the photographing direction is parallel to a reference direction can be configured.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 특징 영역은 전측 교련(anterior commissure)에 대응되는 영역이며, 상기 제2 특징 영역은 후측 교련(posterior commissure)에 대응되는 영역이며, 상기 제1 특징점은 상기 전측 교련에 대응되는 영역을 정의하는 바운더리에 포함되며, 상기 제2 특징점은 상기 후측 교련에 대응되는 영역을 정의하는 바운더리에 포함될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the first characteristic region is a region corresponding to an anterior commissure, and the second characteristic region is a region corresponding to a posterior commissure, and the first The feature point may be included in a boundary defining a region corresponding to the anterior commissure, and the second feature point may be included in a boundary defining a region corresponding to the posterior commissure.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상에 포함된 상기 뇌 영상의 방향과 관련된 데이터를 획득하고, 상기 뇌 영상의 방향과 관련된 데이터에 기초하여 상기 뇌 영상의 촬영 방향을 획득하고, 상기 촬영 방향이 기준 방향에 대응하도록 상기 뇌 영상을 정렬하여 상기 뇌 영상을 정렬하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller acquires data related to a direction of the brain image included in the brain image, and a photographing direction of the brain image based on the data related to the direction of the brain image may be configured to obtain and align the brain image by aligning the brain image so that the photographing direction corresponds to a reference direction.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상으로부터 상기 레퍼런스 영역에 인접하는 기준 평면을 획득하고, 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함으로써, 상기 제2 내부 영역을 획득하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the controller obtains a reference plane adjacent to the reference region from the brain image, and selects a part of the first boundary of the first internal region based on the reference plane. and modifying to obtain the second inner area having the second boundary, thereby obtaining the second inner area.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 기준 평면은 상기 뇌 영상의 횡평면(transverse plane)과 평행한 평면이며, 상기 컨트롤러는, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정하고, 상기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함으로써, 상기 제2 내부 영역을 획득하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the reference plane is a plane parallel to a transverse plane of the brain image, and the controller is the first modifying a portion of the first boundary located below the reference plane based on the inner area, and obtaining the second inner area having the second boundary based on the modified first boundary, whereby the second may be configured to obtain an inner region.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 레퍼런스 영역은 소뇌에 대응되는 영역이며, 상기 기준 평면은 상기 소뇌의 대응되는 영역을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접할 수 있다.According to the brain image analysis apparatus disclosed in the present application, the reference region may be a region corresponding to the cerebellum, and the reference plane may be adjacent to a lower edge of a boundary defining the corresponding region of the cerebellum.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 뇌 영상으로부터 제1 특징 영역 및 제2 특징 영역을 획득하고, 상기 제1 특징 영역으로부터 제1 특징점을 산출하며 상기 제2 특징 영역으로부터 제2 특징점을 산출하고, 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 제1 특징점 및 상기 제2 특징점을 연결하는 기준 방향을 획득하고, 상기 기준 방향에 대하여 평행한 기준 평면을 획득하고, 상기 기준 평면에 기초하여 상기 제1 내부 영역의 상기 제1 바운더리의 일부를 수정하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득함으로써, 상기 제2 내부 영역을 획득하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller obtains a first feature region and a second feature region from the brain image, calculates a first feature point from the first feature region, and from the second feature region calculating a second feature point, obtaining a reference direction connecting the first feature point and the second feature point based on the first feature point and the second feature point, and obtaining a reference plane parallel to the reference direction, and obtaining the second inner area by modifying a part of the first boundary of the first inner area based on the reference plane to obtain the second inner area having the second boundary.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 레퍼런스 영역은 목뼈에 대응되는 영역이며, 상기 기준 평면은, 상기 목뼈에 대응되는 영역에 인접하며 시상면(sagittal plane)과 수직일 수 있다. According to the brain image analysis apparatus disclosed in the present application, the reference region may be a region corresponding to the cervical vertebra, and the reference plane may be adjacent to the region corresponding to the cervical vertebra and may be perpendicular to a sagittal plane.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 기준 평면의 상측(upper side)에 위치하는 상기 제1 내부 영역에 기초하여 상기 제1 바운더리의 상기 기준 평면의 하측에 위치하는 부분을 수정하고, 상기 수정된 제1 바운더리에 기초하여 상기 제2 바운더리를 갖는 상기 제2 내부 영역을 획득하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller, based on the first inner region located on the upper side of the reference plane, the portion located below the reference plane of the first boundary and to obtain the second inner region having the second boundary based on the modified first boundary.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제2 체적 값에 대한 상기 제1 체적 값의 비율로 상기 체적 지표를 정의하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the controller may be configured to define the volume index as a ratio of the first volume value to the second volume value.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제1 체적 값을 보정하기 위한 제1 보정 파라미터를 획득-상기 제1 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-;하고, 상기 제1 보정 파라미터 및 상기 제1 체적 값에 기초하여 상기 제1 체적 보정 값을 계산하여 상기 제1 체적 보정 값을 획득하고, 상기 제2 체적 값을 보정하기 위한 제2 보정 파라미터를 획득-상기 제2 보정 파라미터는 상기 뇌 영상이 획득된 스캔 조건 또는 상기 타겟 요소의 위치에 기초하여 획득됨-;하고, 상기 제2 보정 파라미터 및 상기 제2 체적 값에 기초하여 상기 제2 체적 보정 값을 계산하여 상기 제2 체적 보정 값을 획득하고, 상기 제1 체적 보정 값 및 상기 제2 체적 보정 값에 기초하여 상기 체적 지표를 계산함으로써, 상기 타겟 요소의 상기 체적 지표를 계산하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the controller acquires a first correction parameter for correcting the first volume value, wherein the first correction parameter is a scan condition under which the brain image is obtained or the target element. is obtained based on a position; and calculates the first volume correction value based on the first correction parameter and the first volume value to obtain the first volume correction value, and corrects the second volume value. obtain a second calibration parameter for: the second calibration parameter is obtained based on a scan condition in which the brain image is obtained or the position of the target element; and, according to the second calibration parameter and the second volume value the volume of the target element by calculating the second volume correction value based on the second volume correction value to obtain the second volume correction value, and calculating the volume index based on the first volume correction value and the second volume correction value; It may be configured to calculate an indicator.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 뇌 영상이 획득된 스캔 조건은, 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the scan conditions under which the brain image is obtained are the magnetic field strength related to the resolution of the brain image of the brain image acquisition device, the manufacturer of the brain image acquisition device, and the brain image acquisition device. It may relate to at least one of the setting parameters related to the shape of the magnetic field to be generated.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득함; 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득함; 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득함; 및 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함할 수 있다.According to the medical image analysis method disclosed in the present application, a first morphological value obtained from a first medical image obtained under a first scan condition and related to a target element, and a second medical image obtained under a second scan condition, and the obtaining a calibration parameter calculated based on a correlation between a second morphological value associated with the target element; acquiring a target medical image acquired under the second scan condition; obtaining a target region related to the target element from the target medical image by segmenting the target medical image into a plurality of regions corresponding to a plurality of elements including the target element; obtaining a target morphological value related to the target element based on voxel data corresponding to the target region; obtaining a corrected morphological value based on the target morphological value and the correction parameter; and outputting a morphological index based on the corrected morphological value.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 파라미터를 포함하고, 상기 보정된 형태학적 값을 획득하는 것은, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여, 상기 제1 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 보정된 형태학적 값을 획득하는 것을 포함할 수 있다. According to the medical image analysis method disclosed in the present application, the correction parameter includes a parameter for calculating the first morphological value based on the second morphological value, and obtaining the corrected morphological value comprises: and obtaining the corrected morphological value, which is a morphological estimate value of the target element under the first scan condition, based on the target morphological value and the correction parameter.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 선형 함수와 관련된 파라미터를 포함하고, 상기 보정된 형태학적 값을 획득하는 것은, 상기 타겟 형태학적 값 및 상기 파라미터를 포함하는 상기 선형 함수에 기초하여, 상기 보정된 형태학적 값을 획득하는 것을 포함할 수 있다. According to the medical image analysis method disclosed in the present application, the correction parameter includes a parameter related to a linear function for calculating the first morphological value based on the second morphological value, and the corrected morphological value Acquiring the morphological value may include acquiring the corrected morphological value based on the linear function including the target morphological value and the parameter.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다.According to the medical image analysis method disclosed in the present application, the first scan condition and the second scan condition include a magnetic field strength related to a resolution of a medical image of a medical image acquisition apparatus, a manufacturer of the medical image acquisition apparatus, and the medical image acquisition It may relate to at least one of the setting parameters related to the shape of the magnetic field generated by the device.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다. According to the medical image analysis method disclosed in the present application, the target medical image is obtained from a first object having a first characteristic, and the correction parameter is the first medical image obtained from a second object having the first characteristic. and obtained from the second medical image, wherein the first characteristic may be related to the subject's age or gender.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 세그멘테이션은, 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다. According to the medical image analysis method disclosed in the present application, the segmentation may be performed using a neural network provided to acquire a plurality of regions corresponding to a plurality of elements based on the target medical image.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제2 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 제1 스캔 조건 하에서 획득된 영상에 대응하는 의료 영상으로 변환함;을 더 포함하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행될 수 있다. According to the medical image analysis method disclosed in the present application, the method further includes: converting the target medical image acquired under the second scan condition into a medical image corresponding to the image acquired under the first scan condition, wherein the segmentation comprises: This may be performed based on the converted medical image.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건이 자기장 강도와 관련되는 경우, 상기 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 제2 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제2 형태학적 값을, 제1 자기장 강도 하에서 획득된 상기 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제1 형태학적 값으로 변환하기 위한 파라미터 세트를 포함하며, 상기 타겟 의료 영상이 상기 제2 자기장 강도 하에서 획득된 경우, 상기 보정된 형태학적 값은, 상기 타겟 형태학적 값 및 상기 파라미터 세트에 기초하여 획득될 수 있다.According to the medical image analysis method disclosed in the present application, when the first scan condition and the second scan condition are related to a magnetic field strength, the correction parameter is obtained from the second medical image obtained under a second magnetic field strength, and a target a parameter set for transforming the second morphological value associated with an element into the first morphological value associated with a target element obtained from the first medical image obtained under a first magnetic field strength; When obtained under the second magnetic field strength, the corrected morphological value may be obtained based on the target morphological value and the parameter set.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 타겟 의료 영상을 획득하는 영상 획득부; 및 상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되, 상기 컨트롤러는, 제1 스캔 조건 하에서 획득된 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 의료 영상으로부터 획득되고 상기 타겟 요소와 관련된 제2 형태학적 값 사이의 상관 관계(correlation)에 기초하여 계산된 보정 파라미터를 획득하고, 상기 제2 스캔 조건 하에서 획득된 타겟 의료 영상을 획득하고, 상기 타겟 의료 영상을 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하고, 상기 타겟 영역에 대응하는 복셀(voxel) 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여 보정된 형태학적 값을 획득하고, 상기 보정된 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성될 수 있다. According to an apparatus for analyzing a medical image disclosed in the present application, an image acquisition unit configured to acquire a target medical image; and a controller providing medical image analysis information based on the target medical image. wherein the controller includes: a first morphological value obtained from a first medical image obtained under a first scan condition and related to a target element; Obtaining a correction parameter calculated based on a correlation between related second morphological values, obtaining a target medical image obtained under the second scan condition, and generating the target medical image including the target element. By performing segmentation into a plurality of regions corresponding to a plurality of elements, a target region related to the target element is obtained from the target medical image, and the target element is based on voxel data corresponding to the target region. obtain a target morphological value associated with .
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 파라미터를 포함하고, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 보정 파라미터에 기초하여, 상기 제1 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 보정된 형태학적 값을 획득할 수 있다. According to the medical image analysis apparatus disclosed in the present application, the correction parameter includes a parameter for calculating the first morphological value based on the second morphological value, and the controller includes: the target morphological value and the The corrected morphological value, which is a morphological estimate value of the target element under the first scan condition, may be obtained based on the correction parameter.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제1 형태학적 값을 계산하기 위한 선형 함수와 관련된 파라미터를 포함하고, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 파라미터를 포함하는 상기 선형 함수에 기초하여, 상기 보정된 형태학적 값을 획득하도록 구성될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the correction parameter includes a parameter related to a linear function for calculating the first morphological value based on the second morphological value, and the controller includes: and obtain the corrected morphological value based on the linear function including the morphological value and the parameter.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the first scan condition and the second scan condition may include a magnetic field strength related to a resolution of a medical image of the medical image acquisition device, a manufacturer of the medical image acquisition device, and the medical image acquisition device. It may relate to at least one of a setting parameter setting parameter related to the shape of the magnetic field generated by the device.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.According to the medical image analysis apparatus disclosed in the present application, the target medical image is obtained from a first object having a first characteristic, and the correction parameter is the first medical image obtained from a second object having the first characteristic and obtained from the second medical image, wherein the first characteristic may be related to the subject's age or gender.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 세그멘테이션은, 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the segmentation may be performed using a neural network provided to acquire a plurality of regions corresponding to a plurality of elements based on the target medical image.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제2 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 제1 스캔 조건 하에서 획득된 영상에 대응하는 의료 영상으로 변환하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행되도록 구성될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the controller converts the target medical image acquired under the second scan condition into a medical image corresponding to the image acquired under the first scan condition, and the segmentation is It may be configured to be performed based on the converted medical image.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 형태학적 지표 및 형태학적 지표 데이터베이스에 기초하여 획득한 형태학적 정보를 출력하는 출력 모듈을 더 포함하되, 상기 형태학적 정보는 상기 형태학적 지표 데이터베이스 및 상기 형태학적 지표에 기초하여, 상기 타겟 의료 영상의 대상체와 관련된 상기 형태학적 지표의 상기 형태학적 지표 데이터베이스에 대한 백분위 정보를 포함하며, 상기 출력 모듈은 상기 백분위 정보를 반영하는 상기 형태학적 정보를 출력하도록 구성될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the apparatus further includes an output module for outputting the morphological index and morphological information obtained based on the morphological index database, wherein the morphological information includes the morphological index database and the morphological index database. Percentile information on the morphological index database of the morphological index related to the object of the target medical image is included based on the morphological index, and the output module outputs the morphological information reflecting the percentile information. can be configured.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건이 자기장 강도와 관련되는 경우, 상기 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 제2 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제2 형태학적 값을, 제1 자기장 강도 하에서 획득된 상기 제1 의료 영상으로부터 획득되고 타겟 요소와 관련된 상기 제1 형태학적 값으로 변환하기 위한 파라미터 세트를 포함하며, 상기 타겟 의료 영상이 상기 제2 자기장 강도 하에서 획득된 경우, 상기 보정된 형태학적 값은, 상기 타겟 형태학적 값 및 상기 파라미터 세트에 기초하여 획득될 수 있다. According to the medical image analysis apparatus disclosed in the present application, when the first scan condition and the second scan condition are related to the magnetic field strength, the correction parameter is obtained from the second medical image obtained under the second magnetic field strength, and the target a parameter set for transforming the second morphological value associated with an element into the first morphological value associated with a target element obtained from the first medical image obtained under a first magnetic field strength; When obtained under the second magnetic field strength, the corrected morphological value may be obtained based on the target morphological value and the parameter set.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 타겟 의료 영상을 획득함; 상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득함; 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득함; 상기 타겟 스캔 조건에 기초하여, 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정함; 및 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력함;을 포함하되, 상기 타겟 보정 파라미터를 결정하는 것은, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터는, 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정하는 것을 포함할 수 있다. According to the medical image analysis method disclosed in the present application, a target medical image is obtained; obtaining a target scan condition related to the target medical image; obtaining a target morphological value related to the target element based on voxel data of a target region corresponding to the target element included in the target medical image; determining a target calibration parameter among one or more calibration parameters based on the target scan condition; and outputting a morphological index based on the determined target correction parameter and the target morphological value, wherein the determining of the target correction parameter includes, when the target scan condition corresponds to the first scan condition, The target correction parameter is determined as a first correction parameter for correcting a first morphological value related to a target element obtained under a first scan condition, and when the target scan condition corresponds to the second scan condition, the target The correction parameter may include determining as a second correction parameter for correcting a second morphological value related to the target element obtained under a second scan condition different from the first scan condition.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 형태학적 지표를 출력하는 것은, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표와는 상이한 상기 제2 보정된 형태학적 지표를 계산함; 및 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 제1 보정된 형태학적 지표를 출력하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 제2 보정된 형태학적 지표를 출력함;을 포함할 수 있다.According to the medical image analysis method disclosed in the present application, outputting the morphological index may include, when the target scan condition corresponds to the first scan condition, based on the target morphological value and the first correction parameter. 1 calculate a corrected morphological index, wherein when the target scan condition corresponds to the second scan condition, the first corrected morphological index is different from the first corrected morphological index based on the target morphological value and the second calibration parameter. calculating a second corrected morphological index; and outputting the first corrected morphological index when the target scan condition corresponds to the first scan condition, and outputting the second corrected morphological index when the target scan condition corresponds to the second scan condition. Output box; may include.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 보정 파라미터를 결정하기 위한 기준이 되는 레퍼런스 스캔 조건을 획득함; 을 더 포함할 수 있다. According to the medical image analysis method disclosed in the present application, a reference scan condition as a criterion for determining the target correction parameter is obtained; may further include.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하되, 상기 제1 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제3 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다. According to the medical image analysis method disclosed in the present application, the first correction parameter includes a parameter for calculating a morphological value obtained under the first scan condition as a morphological estimate value under a third scan condition, and the second correction parameter The parameter includes a parameter for calculating a morphological value obtained under the second scan condition as a morphological estimate value under a third scan condition, wherein calculating the first corrected morphological index comprises: the target morphological value and obtaining, based on the first calibration parameter, the first corrected morphological value that is a morphological estimate of the target element under the second scan condition, wherein calculating the second corrected morphological index comprises: , obtaining the second corrected morphological value, which is a morphological estimate value of the target element under the third scan condition, based on the target morphological value and the second correction parameter.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 제1 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제1 파라미터 세트를 포함하는 상기 제1 선형 함수에 기초하여, 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 지표를 계산하는 것은, 상기 타겟 형태학적 값 및 상기 제2 파라미터 세트를 포함하는 상기 제2 선형 함수에 기초하여, 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다. According to the medical image analysis method disclosed in the present application, the first correction parameter is a first parameter related to a first linear function for calculating the morphological value obtained under the first scan condition as a morphological estimate value under the third scan condition. a set, wherein the second calibration parameter comprises a second set of parameters associated with a second linear function for calculating a morphological value obtained under the second scan condition as a morphological estimate under a third scan condition, wherein calculating a first corrected morphological index comprises obtaining the first corrected morphological value based on the first linear function including the target morphological value and the first parameter set; Calculating the second corrected morphological index may include obtaining the second corrected morphological value based on the second linear function including the target morphological value and the second parameter set. can
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the medical image analysis method disclosed in the present application, the first scan condition, the second scan condition, and the target scan condition include a magnetic field strength related to a resolution of a medical image of a medical image acquisition device, and a manufacturer of the medical image acquisition device and a setting parameter related to a shape of a magnetic field generated by the medical image acquisition device.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 대상체로부터 획득되고, 상기 제1 보정 파라미터 또는 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.According to the medical image analysis method disclosed in the present application, the target medical image is obtained from an object having a first characteristic, and the first correction parameter or the second correction parameter is obtained from the object having the first characteristic. It is obtained from the first medical image and the second medical image, and the first characteristic may be related to the age or gender of the object.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 형태학적 값을 획득하는 것은, 상기 타겟 의료 영상을 적어도 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득함; 및 상기 타겟 영역에 대응되는 복셀 데이터에 기초하여 상기 타겟 형태학적 값을 획득함을 포함하며, 상기 세그멘테이션은 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다.According to the medical image analysis method disclosed in the present application, obtaining the target morphological value may include segmenting the target medical image into a plurality of regions corresponding to a plurality of elements including at least the target element, obtaining a target area related to the target element from the target medical image; and obtaining the target morphological value based on voxel data corresponding to the target area, wherein the segmentation is a neural network provided to obtain a plurality of areas corresponding to a plurality of elements based on the target medical image. can be performed using
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 타겟 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 타겟 스캔 조건 이외의 스캔 조건 하에서 촬영된 영상에 대응하는 의료 영상으로 변환함;을 더 포함하며, 상기 세그멘테이션은 상기 변환된 의료 영상에 기초하여 수행될 수 있다.According to the medical image analysis method disclosed in the present application, the method further includes: converting the target medical image acquired under the target scan condition into a medical image corresponding to the image captured under a scan condition other than the target scan condition; Segmentation may be performed based on the converted medical image.
본 출원에 개시된 의료 영상 분석 방법에 따르면, 상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건이 자기장 강도와 관련되는 경우, 상기 제1 보정 파라미터는 제1 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제1 형태학적 값을 보정하기 위한 제1 파라미터 세트를 포함하며, 상기 제2 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제2 형태학적 값을 보정하기 위한 제2 파라미터 세트를 포함하며, 상기 타겟 보정 파라미터를 결정하는 것은, 상기 타겟 스캔 조건이 상기 제1 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 파라미터 세트로 결정하고, 상기 타겟 스캔 조건이 상기 제2 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는, 제2 파라미터 세트로 결정하는 것을 포함할 수 있다. According to the medical image analysis method disclosed in the present application, when the first scan condition, the second scan condition, and the target scan condition are related to the magnetic field strength, the first correction parameter is the target obtained under the first magnetic field strength. a first parameter set for correcting the first morphological value associated with an element, wherein the second correction parameter comprises a first parameter set for correcting the second morphological value associated with the target element obtained under a second magnetic field strength. two parameter sets, wherein the determining of the target calibration parameter includes: when the target scan condition corresponds to the first magnetic field strength, the target calibration parameter is determined as the first parameter set, and the target scan condition is When it corresponds to the second magnetic field strength, the target correction parameter may include determining a second parameter set.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 타겟 의료 영상을 획득하는 영상 획득부; 및 상기 타겟 의료 영상에 기초하여 의료 영상 분석 정보를 제공하는 컨트롤러; 를 포함하되, 상기 컨트롤러는, 상기 타겟 의료 영상과 관련된 타겟 스캔 조건을 획득하고, 상기 타겟 의료 영상에 포함된 타겟 요소에 대응되는 타겟 영역의 복셀 데이터에 기초하여 상기 타겟 요소와 관련된 타겟 형태학적 값을 획득하고, 상기 타겟 스캔 조건에 기초하여 하나 이상의 보정 파라미터 중 타겟 보정 파라미터를 결정하고, 상기 결정된 타겟 보정 파라미터 및 상기 타겟 형태학적 값에 기초하여 형태학적 지표를 출력하도록 구성되되, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터로 결정하고, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우, 상기 타겟 보정 파라미터를 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 타겟 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터로 결정함으로써 상기 타겟 보정 파라미터를 결정하도록 구성될 수 있다.According to an apparatus for analyzing a medical image disclosed in the present application, an image acquisition unit configured to acquire a target medical image; and a controller providing medical image analysis information based on the target medical image. wherein the controller obtains a target scan condition related to the target medical image, and a target morphological value related to the target element based on voxel data of a target region corresponding to the target element included in the target medical image. and determine a target correction parameter among one or more correction parameters based on the target scan condition, and output a morphological index based on the determined target correction parameter and the target morphological value, wherein the target scan condition is configured to: When the first scan condition corresponds to the first scan condition, the target calibration parameter is determined as a first calibration parameter for correcting a first morphological value related to a target element obtained under the first scan condition, wherein the target scan condition is By determining the target correction parameter as a second correction parameter for correcting a second morphological value associated with the target element obtained under a second scan condition that is different from the first scan condition, if it corresponds to the second scan condition and determine the target calibration parameter.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제1 보정된 형태학적 지표와는 상이한 상기 제2 보정된 형태학적 지표를 계산하며, 상기 타겟 스캔 조건이 상기 제1 스캔 조건에 대응되는 경우 상기 제1 보정된 형태학적 지표를 출력하며, 상기 타겟 스캔 조건이 상기 제2 스캔 조건에 대응되는 경우 상기 제2 보정된 형태학적 지표를 출력함으로써 상기 형태학적 지표를 출력하도록 구성될 수 있다. According to the medical image analysis apparatus disclosed in the present application, when the target scan condition corresponds to the first scan condition, the controller is configured to configure the first corrected morphology based on the target morphological value and the first correction parameter. calculate an index, and when the target scan condition corresponds to the second scan condition, the second corrected shape different from the first corrected morphological index based on the target morphological value and the second correction parameter calculate a morphological index, output the first corrected morphological index when the target scan condition corresponds to the first scan condition, and output the second corrected morphological index when the target scan condition corresponds to the second scan condition It may be configured to output the morphological index by outputting the morphological index.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 파라미터를 포함하되, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제3 스캔 조건 하에서의 상기 타겟 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하여 상기 제2 보정된 형태학적 지표를 계산하도록 구성될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the first correction parameter includes a parameter for calculating a morphological value obtained under the first scan condition as a morphological estimate value under a third scan condition, and the second correction parameter The parameters include parameters for calculating the morphological value obtained under the second scan condition as a morphological estimate value under the third scan condition, wherein the controller is configured to: based on the target morphological value and the first correction parameter, calculating the first corrected morphological index by obtaining the first corrected morphological value, which is a morphological estimate value of the target element under the second scan condition, based on the target morphological value and the second correction parameter to calculate the second corrected morphological index by obtaining the second corrected morphological value that is a morphological estimate value of the target element under the third scan condition.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 보정 파라미터는 상기 제1 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는 상기 제2 스캔 조건 하에서 획득된 형태학적 값을 제3 스캔 조건 하에서의 형태학적 추정값으로 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 컨트롤러는, 상기 타겟 형태학적 값 및 상기 제1 파라미터 세트를 포함하는 상기 제1 선형 함수에 기초하여, 상기 제1 보정된 형태학적 값을 획득하여 상기 제1 보정된 형태학적 지표를 계산하며, 상기 타겟 형태학적 값 및 상기 제2 파라미터 세트를 포함하는 상기 제2 선형 함수에 기초하여, 상기 제2 보정된 형태학적 값을 획득하여 상기 제2 보정된 형태학적 지표를 계산하도록 구성될 수 있다.According to the medical image analysis apparatus disclosed in the present application, the first correction parameter is a first parameter related to a first linear function for calculating the morphological value obtained under the first scan condition as a morphological estimate value under the third scan condition. a set, wherein the second calibration parameter comprises a second set of parameters associated with a second linear function for calculating a morphological value obtained under the second scan condition as a morphological estimate under a third scan condition, wherein a controller, based on the first linear function including the target morphological value and the first parameter set, obtains the first corrected morphological value to calculate the first corrected morphological index; and calculate the second corrected morphological index by obtaining the second corrected morphological value based on the second linear function including a target morphological value and the second parameter set.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 의료 영상 획득 장치의 의료 영상의 해상도와 관련되는 자기장 강도, 상기 의료 영상 획득 장치의 제조사 및 상기 의료 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the first scan condition and the second scan condition may include a magnetic field strength related to a resolution of a medical image of the medical image acquisition device, a manufacturer of the medical image acquisition device, and the medical image acquisition device. It may relate to at least one of a setting parameter setting parameter related to the shape of the magnetic field generated by the device.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 타겟 의료 영상은 제1 특성을 가지는 대상체로부터 획득되고, 상기 제1 보정 파라미터 및 상기 제2 보정 파라미터 중 적어도 하나를 포함하는 상기 타겟 보정 파라미터는, 상기 제1 특성을 가지는 대상체로부터 획득된 상기 제1 의료 영상 및 상기 제2 의료 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the target medical image is obtained from an object having a first characteristic, and the target correction parameter including at least one of the first correction parameter and the second correction parameter may include: It is obtained from the first medical image and the second medical image obtained from the object having a first characteristic, wherein the first characteristic may be related to an age or a gender of the object.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 의료 영상을 적어도 상기 타겟 요소를 포함하는 복수의 요소들에 대응되는 복수의 영역들로 세그멘테이션을 수행함으로써, 상기 타겟 의료 영상으로부터 상기 타겟 요소에 관련된 타겟 영역을 획득하며, 상기 타겟 영역에 대응되는 복셀 데이터에 기초하여 상기 타겟 형태학적 값을 획득하도록 구성되며, 상기 세그멘테이션은 상기 타겟 의료 영상에 기초하여 복수의 요소들에 대응되는 복수의 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다. According to the medical image analysis apparatus disclosed in the present application, the controller performs segmentation of the target medical image into a plurality of regions corresponding to a plurality of elements including at least the target element, thereby extracting the target medical image from the target medical image. acquire a target region related to a target element, and acquire the target morphological value based on voxel data corresponding to the target region, wherein the segmentation includes a plurality of elements corresponding to a plurality of elements based on the target medical image. can be performed using a neural network provided to obtain regions of
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 스캔 조건 하에서 획득된 상기 타겟 의료 영상을 상기 타겟 스캔 조건 이외의 스캔 조건 하에서 촬영된 영상에 대응하는 의료 영상으로 변환하며, 상기 변환된 의료 영상에 기초하여 상기 세그멘테이션을 수행하도록 구성될 수 있다.According to the medical image analysis apparatus disclosed in the present application, the controller converts the target medical image acquired under the target scan condition into a medical image corresponding to an image captured under a scan condition other than the target scan condition, and the conversion It may be configured to perform the segmentation based on the obtained medical image.
본 출원에 개시된 의료 영상 분석 장치에 따르면, 상기 제1 스캔 조건, 상기 제2 스캔 조건 및 상기 타겟 스캔 조건이 자기장 강도와 관련되는 경우, 상기 제1 보정 파라미터는 제1 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제1 형태학적 값을 보정하기 위한 제1 파라미터 세트를 포함하며, 상기 제2 보정 파라미터는 제2 자기장 강도 하에서 획득된 상기 타겟 요소와 관련된 상기 제2 형태학적 값을 보정하기 위한 제2 파라미터 세트를 포함하며, 상기 컨트롤러는, 상기 타겟 스캔 조건이 상기 제1 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는 상기 제1 파라미터 세트로 결정하고, 상기 타겟 스캔 조건이 상기 제2 자기장 강도에 대응되는 경우, 상기 타겟 보정 파라미터는, 제2 파라미터 세트로 결정함으로써, 상기 타겟 보정 파라미터를 결정하도록 구성될 수 있다. According to the medical image analysis apparatus disclosed in the present application, when the first scan condition, the second scan condition, and the target scan condition are related to the magnetic field strength, the first correction parameter is the target obtained under the first magnetic field strength. a first parameter set for correcting the first morphological value associated with an element, wherein the second correction parameter comprises a first parameter set for correcting the second morphological value associated with the target element obtained under a second magnetic field strength. two parameter sets, wherein when the target scan condition corresponds to the first magnetic field strength, the target correction parameter is determined as the first parameter set, and the target scan condition is the second magnetic field strength , the target correction parameter may be configured to determine the target correction parameter by determining the second parameter set.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득함; 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득함; 타겟 뇌 영상을 획득함; 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득함; 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득함; 및 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득함;을 포함할 수 있다.According to the brain image analysis method disclosed in the present application, a first correction parameter is obtained for correcting a first morphological value related to a first brain element; obtaining a second correction parameter for correcting a second morphological value associated with a second brain element different from the first brain element; acquiring a target brain image; The first region by segmenting the target brain image into a plurality of brain regions including a first region corresponding to the first brain element, a second region corresponding to the second brain element, and a skull region; obtaining a third region associated with the second region and an inner region of the cranial region; acquiring a first brain morphological index related to the first brain element based on voxel data corresponding to the first region, voxel data corresponding to the third region, and the first correction parameter; and obtaining a second brain morphological index related to the second brain element based on voxel data corresponding to the second region, voxel data corresponding to the third region, and the second correction parameter. have.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제3 영역에 대응되는 복셀 데이터에 기초하여 상기 내부 영역과 관련된 기준 형태학적 값을 획득함;을 더 포함하며, 상기 제1 뇌 형태학적 지표를 획득하는 것은, 상기 제1 영역에 대응되는 복셀 데이터에 기초하여 상기 제1 뇌 요소와 관련된 제1 타겟 형태학적 값을 획득함; 상기 제1 타겟 형태학적 값과 상기 제1 보정 파라미터에 기초하여 제1 뇌 요소와 관련된 제1 보정된 형태학적 값을 계산함; 및 상기 제1 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제1 뇌 형태학적 지표를 계산함;을 포함하며, 상기 제2 뇌 형태학적 지표를 획득하는 것은, 상기 제2 영역에 대응되는 복셀 데이터에 기초하여 상기 제2 뇌 요소와 관련된 제2 타겟 형태학적 값을 획득함; 상기 제2 타겟 형태학적 값과 상기 제2 보정 파라미터에 기초하여 제2 뇌 요소와 관련된 제2 보정된 형태학적 값을 계산함; 및 상기 제2 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제2 뇌 형태학적 지표를 계산함;을 포함할 수 있다.According to the brain image analysis method disclosed in the present application, the method further includes: acquiring a reference morphological value related to the inner region based on voxel data corresponding to the third region, and acquiring the first brain morphological index The method may include: acquiring a first target morphological value associated with the first brain element based on voxel data corresponding to the first region; calculating a first corrected morphological value associated with a first brain element based on the first target morphological value and the first correction parameter; and calculating the first brain morphological index based on the first corrected morphological value and the reference morphological value, wherein obtaining the second brain morphological index comprises: obtaining a second target morphological value associated with the second brain element based on the corresponding voxel data; calculating a second corrected morphological value associated with a second brain element based on the second target morphological value and the second correction parameter; and calculating the second brain morphological index based on the second corrected morphological value and the reference morphological value.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 형태학적 값 및 상기 제2 형태학적 값은 제1 스캔 조건 하에서 획득된 값이며, 상기 타겟 뇌 영상은 상기 제1 스캔 조건 하에서 획득되며, 상기 제1 보정 파라미터는 상기 제1 형태학적 값에 기초하여 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 제1 뇌 요소와 관련된 제3 형태학적 값을 계산하기 위한 제1 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제2 스캔 조건 하에서 획득된 상기 제2 뇌 요소와 관련된 제4 형태학적 값을 계산하기 위한 제2 파라미터를 포함하며, 상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 제1 뇌 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 값을 계산하는 것은, 상기 제2 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 제2 뇌 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, the first morphological value and the second morphological value are values obtained under a first scan condition, and the target brain image is obtained under the first scan condition, the first calibration parameter comprises a first parameter for calculating a third morphological value associated with the first brain element obtained under a second scan condition different from the first scan condition based on the first morphological value and the second correction parameter includes a second parameter for calculating a fourth morphological value related to the second brain element obtained under the second scan condition based on the second morphological value, Calculating a 1 corrected morphological value comprises: based on the first target morphological value and the first correction parameter, the first corrected morphology that is a morphological estimate of the first brain element under the second scan condition. obtaining a morphological value, wherein calculating the second corrected morphological value comprises: based on the second target morphological value and the second correction parameter, the second brain element under the second scan condition. and obtaining the second corrected morphological value that is a morphological estimate of .
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 보정 파라미터는, 상기 제1 형태학적 값에 기초하여 상기 제3 형태학적 값을 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제4 형태학적 값을 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 제2 보정된 형태학적 값을 계산하는 것은, 상기 제2 타겟 형태학적 값 및 상기 제2 선형 함수와 관련된 제2 파라미터 세트에 기초하여 상기 제2 보정된 형태학적 값을 획득하는 것을 포함할 수 있다. According to the brain image analysis method disclosed in the present application, the first correction parameter includes a first parameter set related to a first linear function for calculating the third morphological value based on the first morphological value, , wherein the second correction parameter comprises a second parameter set associated with a second linear function for calculating the fourth morphological value based on the second morphological value, wherein the first corrected morphological value is Calculating comprises obtaining the first corrected morphological value based on the first target morphological value and a first parameter set associated with the first linear function, wherein the second corrected morphological value is Calculating may include obtaining the second corrected morphological value based on the second target morphological value and a second parameter set associated with the second linear function.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 뇌 요소에 대응되는 상기 제1 영역은, 상기 제2 뇌 요소에 대응되는 상기 제2 영역과 비교하여 상기 두개골 영역에 인접하여 위치할 수 있다. According to the brain image analysis method disclosed in the present application, the first region corresponding to the first brain element may be located adjacent to the skull region compared to the second region corresponding to the second brain element .
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 뇌 요소는 제1 뇌 기능을 수행하는 요소와 관련되며, 상기 제2 뇌 요소는 상기 제1 뇌 기능과는 상이한 제2 뇌 기능을 수행하는 요소와 관련될 수 있다. According to the brain image analysis method disclosed in the present application, the first brain element is related to an element performing a first brain function, and the second brain element performs a second brain function different from the first brain function. It can be related to elements.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the brain image analysis method disclosed in the present application, the first scan condition and the second scan condition are the magnetic field strength related to the resolution of the brain image of the brain image acquisition device, the manufacturer of the brain image acquisition device, and the brain image acquisition It may relate to at least one of the setting parameters related to the shape of the magnetic field generated by the device.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 타겟 뇌 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 제1 보정 파라미터 및 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다. According to the brain image analysis method disclosed in the present application, the target brain image is obtained from a first object having a first characteristic, and the first correction parameter and the second correction parameter are the second object having the first characteristic. It is obtained from a first brain image and a second brain image obtained from
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 세그멘테이션은, 상기 타겟 뇌 영상에 기초하여 상기 제1 뇌 요소, 상기 제2 뇌 요소 및 상기 두개골을 포함하는 복수의 뇌 요소들에 대응되는 복수의 뇌 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다. According to the brain image analysis method disclosed in the present application, the segmentation is a plurality of brains corresponding to a plurality of brain elements including the first brain element, the second brain element, and the skull based on the target brain image. This may be done using a neural network provided to acquire regions.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 타겟 뇌 영상을 전처리함;을 더 포함하되, 상기 타겟 뇌 영상을 전처리하는 것은, 상기 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 상기 제2 영역에 대하여는 제1 방법과는 상이한 제2 방법의 전처리를 수행하는 것을 포함하며, 상기 세그멘테이션은 상기 전처리된 상기 타겟 뇌 영상에 기초하여 수행될 수 있다. According to the brain image analysis method disclosed in the present application, pre-processing the target brain image; further comprising, wherein the pre-processing of the target brain image includes performing pre-processing on the first region by a first method, It includes performing preprocessing of a second method different from the first method with respect to the two regions, and the segmentation may be performed based on the preprocessed target brain image.
본 출원에 개시된 뇌 영상 분석 방법에 따르면, 상기 제1 보정된 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제1 뇌 요소와 관련된 체적값이며, 상기 제2 타겟 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제2 뇌 요소와 관련된 체적값이며, 상기 제1 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제1 보정된 형태학적 값으로 계산되며, 상기 제2 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제2 보정된 형태학적 값으로 계산될 수 있다. According to the brain image analysis method disclosed in the present application, the first corrected morphological value is a volume value related to the first brain element obtained by the target brain image, and the second target morphological value is the target brain image is a volume value associated with the second brain element obtained as It may be calculated as the second corrected morphological value with respect to the reference morphological value.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 타겟 뇌 영상을 획득하는 영상 획득부; 및 상기 타겟 뇌 영상에 기초하여 뇌 영상 분석 정보를 제공하는 컨트롤러;를 포함하되, 상기 컨트롤러는, 제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득하고, 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득하고, 타겟 뇌 영상을 획득하고, 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득하고, 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득하고, 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, an image acquisition unit for acquiring a target brain image; and a controller providing brain image analysis information based on the target brain image, wherein the controller obtains a first correction parameter for correcting a first morphological value related to a first brain element, Obtaining a second correction parameter for correcting a second morphological value related to a second brain element different from a brain element, obtaining a target brain image, and applying the target brain image to a first region corresponding to the first brain element , a third region associated with the first region, the second region, and an inner region of the cranial region by performing segmentation into a plurality of brain regions including a second region corresponding to the second brain element and a cranial region obtaining a first brain morphological index related to the first brain element based on voxel data corresponding to the first region, voxel data corresponding to the third region, and the first correction parameter, and and acquire a second brain morphological index related to the second brain element based on voxel data corresponding to the second region, voxel data corresponding to the third region, and the second correction parameter.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 제3 영역에 대응되는 복셀 데이터에 기초하여 상기 내부 영역과 관련된 기준 형태학적 값을 획득하도록 구성되며, 상기 제1 영역에 대응되는 복셀 데이터에 기초하여 상기 제1 뇌 요소와 관련된 제1 타겟 형태학적 값을 획득하고, 상기 제1 타겟 형태학적 값과 상기 제1 보정 파라미터에 기초하여 제1 뇌 요소와 관련된 제1 보정된 형태학적 값을 계산하고, 상기 제1 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제1 뇌 형태학적 지표를 계산하여 상기 제1 뇌 형태학적 지표를 획득하며, 상기 제2 영역에 대응되는 복셀 데이터에 기초하여 상기 제2 뇌 요소와 관련된 제2 타겟 형태학적 값을 획득하고, 상기 제2 타겟 형태학적 값과 상기 제2 보정 파라미터에 기초하여 제2 뇌 요소와 관련된 제2 보정된 형태학적 값을 계산하고, 상기 제2 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제2 뇌 형태학적 지표를 계산하여 상기 제2 뇌 형태학적 지표를 획득하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller is configured to acquire a reference morphological value related to the inner region based on voxel data corresponding to the third region, and a voxel corresponding to the first region obtain a first target morphological value associated with the first brain element based on data, and a first corrected morphological value associated with the first brain element based on the first target morphological value and the first correction parameter and calculating the first brain morphological index based on the first corrected morphological value and the reference morphological value to obtain the first brain morphological index, and voxels corresponding to the second region obtain a second target morphological value associated with the second brain element based on data, and a second corrected morphological value associated with a second brain element based on the second target morphological value and the second correction parameter and calculating the second brain morphological index based on the second corrected morphological value and the reference morphological value to obtain the second brain morphological index.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 형태학적 값 및 상기 제2 형태학적 값은 제1 스캔 조건 하에서 획득된 값이며, 상기 타겟 뇌 영상은 상기 제1 스캔 조건 하에서 획득되며, 상기 제1 보정 파라미터는 상기 제1 형태학적 값에 기초하여 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 제1 뇌 요소와 관련된 제3 형태학적 값을 계산하기 위한 제1 파라미터를 포함하고, 상기 제2 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제2 스캔 조건 하에서 획득된 상기 제2 뇌 요소와 관련된 제4 형태학적 값을 계산하기 위한 제2 파라미터를 포함하며, 상기 컨트롤러는, 상기 제1 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제2 스캔 조건 하에서의 상기 제1 뇌 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 계산하며, 상기 제2 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제2 스캔 조건 하에서의 상기 제2 뇌 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 계산하도록 구성될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the first morphological value and the second morphological value are values obtained under a first scan condition, the target brain image is obtained under the first scan condition, and the the first calibration parameter comprises a first parameter for calculating a third morphological value associated with the first brain element obtained under a second scan condition different from the first scan condition based on the first morphological value and the second correction parameter includes a second parameter for calculating a fourth morphological value related to the second brain element obtained under the second scan condition based on the second morphological value, wherein the controller calculates the first corrected morphological value, which is a morphological estimate value of the first brain element under the second scan condition, based on the first target morphological value and the first correction parameter, and the second target and calculate the second corrected morphological value, which is a morphological estimate of the second brain element under the second scan condition, based on the morphological value and the second correction parameter.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 보정 파라미터는, 상기 제1 형태학적 값에 기초하여 상기 제3 형태학적 값을 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고, 상기 제2 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제4 형태학적 값을 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며, 상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며, 상기 컨트롤러는, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 계산하며, 상기 제2 타겟 형태학적 값 및 상기 제2 선형 함수와 관련된 제2 파라미터 세트에 기초하여 상기 제2 보정된 형태학적 값을 계산하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the first correction parameter includes a first parameter set related to a first linear function for calculating the third morphological value based on the first morphological value, , wherein the second correction parameter comprises a second parameter set associated with a second linear function for calculating the fourth morphological value based on the second morphological value, wherein the first corrected morphological value is Calculating comprises obtaining the first corrected morphological value based on the first target morphological value and a first parameter set associated with the first linear function, wherein the controller is configured to: calculate the first corrected morphological value based on a first set of parameters associated with the first linear function, and the second target morphological value based on the second target morphological value and a second set of parameters associated with the second linear function. to calculate the second corrected morphological value.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 뇌 요소에 대응되는 상기 제1 영역은, 상기 제2 뇌 요소에 대응되는 상기 제2 영역과 비교하여 상기 두개골 영역에 인접하여 위치할 수 있다. According to the brain image analysis apparatus disclosed in the present application, the first region corresponding to the first brain element may be located adjacent to the skull region compared to the second region corresponding to the second brain element .
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 뇌 요소는 제1 뇌 기능을 수행하는 요소와 관련되며, 상기 제2 뇌 요소는 상기 제1 뇌 기능과는 상이한 제2 뇌 기능을 수행하는 요소와 관련될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the first brain element is related to an element performing a first brain function, and the second brain element performs a second brain function different from the first brain function. It can be related to elements.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 스캔 조건 및 상기 제2 스캔 조건은 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the first scan condition and the second scan condition are the magnetic field strength related to the resolution of the brain image of the brain image acquisition device, the manufacturer of the brain image acquisition device, and the brain image acquisition It may relate to at least one of a setting parameter setting parameter related to the shape of the magnetic field generated by the device.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 뇌 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고, 상기 제1 보정 파라미터 및 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득되되, 상기 제1 특성은 대상체의 나이 또는 성별과 관련될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the controller, the target brain image is obtained from a first object having a first characteristic, the first correction parameter and the second correction parameter, the first characteristic Branches are obtained from the first brain image and the second brain image obtained from the second object, wherein the first characteristic may be related to the age or sex of the object.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 세그멘테이션은, 상기 타겟 뇌 영상에 기초하여 상기 제1 뇌 요소, 상기 제2 뇌 요소 및 상기 두개골을 포함하는 복수의 뇌 요소들에 대응되는 복수의 뇌 영역들을 획득하도록 제공되는 신경망을 사용하여 수행될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the segmentation is a plurality of brains corresponding to a plurality of brain elements including the first brain element, the second brain element, and the skull based on the target brain image. This may be done using a neural network provided to acquire regions.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 컨트롤러는, 상기 타겟 뇌 영상을 전처리하며, 상기 세그멘테이션은 상기 전처리된 상기 타겟 뇌 영상에 기초하여 수행하되, 상기 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 상기 제2 영역에 대하여는 제1 방법과는 상이한 전처리를 수행하도록 구성될 수 있다. According to the brain image analysis apparatus disclosed in the present application, the controller pre-processes the target brain image, and the segmentation is performed based on the pre-processed target brain image, but the first region is pre-processed by a first method However, the second region may be configured to perform a different pre-processing from the first method.
본 출원에 개시된 뇌 영상 분석 장치에 따르면, 상기 제1 보정된 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제1 뇌 요소와 관련된 체적값이며, 상기 제2 타겟 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제2 뇌 요소와 관련된 체적값이며, 상기 제1 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제1 보정된 형태학적 값으로 계산되며, 상기 제2 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제2 보정된 형태학적 값으로 계산될 수 있다.According to the brain image analysis apparatus disclosed in the present application, the first corrected morphological value is a volume value related to the first brain element obtained by the target brain image, and the second target morphological value is the target brain image is a volume value associated with the second brain element obtained as It may be calculated as the second corrected morphological value with respect to the reference morphological value.
이하에서는 본 출원의 뇌 영상 분석 장치, 뇌 영상 분석 시스템 및 뇌 영상 분석 방법에 관하여 설명한다. 여기서, 뇌 영상 분석은 뇌 영상에 대하여 세그멘테이션을 수행함으로써 복수의 뇌 영역을 획득한 후 뇌와 관련된 형태학적 지표를 계산하고 이를 사용자에게 출력함으로써 수행될 수 있다. Hereinafter, a brain image analysis apparatus, a brain image analysis system, and a brain image analysis method of the present application will be described. Here, the brain image analysis may be performed by acquiring a plurality of brain regions by performing segmentation on the brain image, calculating a morphological index related to the brain, and outputting it to the user.
본 출원에서는 이러한 뇌 영상 분석의 정확도와 신뢰도를 개선하기 위하여, 뇌 영상의 퀄리티를 체크하여 뇌 영상 분석 결과에 대한 신뢰도를 개선하거나, 획득된 특정 뇌 영역의 형태학적 값 혹은 형태학적 지표를 보정하여 뇌 영상 분석 결과의 정확도를 개선하거나, 분석될 뇌 영상 자체로부터 특정 뇌 영역의 형태학적 값 혹은 형태학적 지표을 계산하여 개인 맞춤형인 분석 결과를 제공하거나, 사용자에게 선별적인 정보만을 제공하여 사용자 친화적인 레포트를 제공하는 등의 다양한 기법들을 개시한다. In the present application, in order to improve the accuracy and reliability of such brain image analysis, the reliability of the brain image analysis result is improved by checking the quality of the brain image, or the morphological value or morphological index of a specific brain region obtained is corrected. User-friendly report by improving the accuracy of brain image analysis results, calculating morphological values or morphological indicators of specific brain regions from the brain image to be analyzed, providing personalized analysis results, or providing users with only selective information Various techniques are disclosed, such as providing
이하에서는 본 출원의 일 실시예에 따른 의료 이미지 분석 방법 및 의료 이미지 분석 장치 및 의료 이미지 분석 시스템에 관하여 설명한다. Hereinafter, a medical image analysis method, a medical image analysis apparatus, and a medical image analysis system according to an embodiment of the present application will be described.
도 1은 본 출원의 일 실시예에 따른 의료 이미지 분석 시스템에 관한 개략도이다. 도 1을 참고하면, 본 출원의 일 실시예에 따른 의료 이미지 분석 시스템은 이미지 획득 장치(1000) 및 이미지 분석 장치(2000)를 포함할 수 있다. 1 is a schematic diagram of a medical image analysis system according to an embodiment of the present application. Referring to FIG. 1 , a medical image analysis system according to an embodiment of the present application may include an
이미지 획득 장치(1000)는 이미지를 획득하여 네트워크를 통하여 이미지 분석 장치(2000)에 송신할 수 있다. The
일 예로, 이미지 획득 장치(1000)는 자기 공명 영상(MRI, Magnetic Resonance Imaging)을 획득하기 위한 장치일 수 있다. 이때, 이미지 획득 장치(1000)에 획득된 자기 공명 영상은 네트워크를 통하여 이미지 분석 장치(2000)로 전달될 수 있다. As an example, the
다른 예로, 이미지 획득 장치(1000)는 컴퓨터 단층 촬영(CT, Computed Tomography) 영상을 획득하기 위한 장치일 수 있다. 이때, 이미지 획득 장치(1000)에 획득된 컴퓨터 단층 촬영 영상은 네트워크를 통하여 이미지 분석 장치(2000)로 전달될 수 있다. As another example, the
또 다른 예로, 이미지 획득 장치(1000)는 방사선 촬영(Radiography)에 의하여 획득된 영상을 획득하기 위한 장치일 수 있다. 이때, 이미지 획득 장치(1000)에 획득된 방사선 촬영 영상은 네트워크를 통하여 이미지 분석 장치(2000)로 전달될 수 있다. As another example, the
또 다른 예로, 이미지 획득 장치(1000)는 양전자 방사 단층 촬영법(positron emission tomography, PET)에 의하여 획득된 영상을 획득하기 위한 장치일 수 있다.As another example, the
다만 상술한 이미지 획득 장치(1000)는 예시에 불과하며, 이에 제한되지 않고, 의학 촬영(medical imaging)에 활용되는 임의의 적절한 장치나 시스템을 포괄하는 의미로 해석되어야 할 것이다. However, the above-described
이미지 획득 장치(1000)에 의해 획득된 이미지는 2차원 형태의 이미지일 수 있다. 이때, 이미지는 픽셀의 좌표, 색상, 강도 등과 관련된 픽셀 정보를 포함할 수 있다. The image acquired by the
이미지 획득 장치(1000)에 의해 획득된 이미지는 3차원 형태의 이미지일 수 있다. 이때, 이미지는 복셀의 좌표, 색상, 강도와 관련된 픽셀 정보를 포함할 수 있다. The image acquired by the
이미지 획득 장치(1000)에 의해 획득된 이미지는 이미지의 정렬과 관련된 정보를 포함할 수 있다. 예를 들어, 이미지 획득 장치(1000)는 대상체(100)의 기준 좌표축의 방향(RAS)을 고려하여, 촬영된 이미지의 방향과 관련된 데이터(ijk)를 함께 획득할 수 있다. 구체적으로 이미지 획득 장치는 이미지 획득 장치의 좌표 축에 대한 정보(xyz) 및 대상체(100)의 기준 좌표 축에 대한 정보(RAS)를 고려하여 촬영된 이미지의 방향과 관련된 데이터(ijk)를 획득할 수 있다. The image acquired by the
이미지 획득 장치(1000)는 이미지의 자기장 세기와 관련된 데이터, 이미지 장치의 제조사와 관련된 데이터, 이미지 장치의 세팅 파라미터와 관련된 데이터, 이미지의 대상체와 관련된 데이터 등을 획득할 수 있다. The
자기장 세기와 관련된 데이터란 자기장을 이용하여 의료 이미지를 획득하는 경우(예, MRI)에 있어서, 대상체에 대하여 인가되는 자기장의 세기와 관련된 데이터를 포괄하는 의미일 수 있다. 예를 들어, 대상 이미지가 1.5T(Tesla)의 자기장 세기 조건 하에서 획득된 경우에는 "1.5T"에 대응되는 데이터가 자기장 세기와 관련된 데이터에 해당할 수 있다. 다만 1.5T에 제한되지 않고, 3T, 7T, 8T 등 의료 영상을 획득하기 위하여 일반적으로 사용되는 자기장 세기에 대응되는 데이터가 자기장 세기와 관련된 데이터에 해당될 수 있다.The data related to the magnetic field strength may include data related to the strength of the magnetic field applied to the object when a medical image is acquired using a magnetic field (eg, MRI). For example, when the target image is acquired under a condition of a magnetic field strength of 1.5T (Tesla), data corresponding to “1.5T” may correspond to data related to the magnetic field strength. However, it is not limited to 1.5T, and data corresponding to the magnetic field strength generally used to obtain a medical image, such as 3T, 7T, 8T, etc., may correspond to the data related to the magnetic field strength.
이미지 장치의 세팅 파라미터란 의료 영상을 획득하기 위하여 이미지 장치에서 조절하거나 제어할 수 있는 파라미터를 포괄하는 의미일 수 있다. 예를 들어, 이미지 장치의 세팅 파라미터는 동일한 슬라이스에 적용된 연속 펄스 시퀀스 사이의 시간을 의미하는 반복시간(TR, Repetition Time), RF 펄스 전달과 에코 신호 수신 사이의 시간(TE, Time to Echo), 여기된 양성자가 평형 상태로 돌아가는 속도와 관련된 시간 상수(T1), 여기 된 양성자가 평형에 도달하거나 서로 위상을 벗어나는 속도와 관련된 시간 상수(T2), 양성자 밀도(PD, Proton density) 혹은 이들의 임의의 조합을 포괄하는 의미일 수 있다. The setting parameters of the imaging device may include parameters that can be adjusted or controlled by the imaging device in order to acquire a medical image. For example, the setting parameters of the imaging device include a repetition time (TR, Repetition Time), which means the time between consecutive pulse sequences applied to the same slice, a time between transmitting an RF pulse and receiving an echo signal (TE, Time to Echo), A time constant related to the rate at which excited protons return to equilibrium (T1), a time constant related to the rate at which excited protons reach equilibrium or out of phase with each other (T2), proton density (PD, Proton density), or any of these It may mean encompassing a combination of
다만 상술한 예시에 제한되지 않고 자기장 특성과 관련된 임의의 파라미티를 포함하는 의미로 해석되어야 한다. 또한, 자기장을 이용하여 대상 이미지를 획득하는 것에 제한되지 않고, CT 방식 혹은 방사선(예, X-ray) 조사 방식을 이용하는 이미지 장치와 관련된 임의의 파라미터를 포함하는 의미로서 해석되어야 한다. However, it is not limited to the above-described examples and should be interpreted as meaning including any parameters related to magnetic field characteristics. In addition, it is not limited to acquiring a target image using a magnetic field, and should be interpreted as meaning including any parameters related to an imaging device using a CT method or a radiation (eg, X-ray) irradiation method.
이때, 상술한 데이터들은 획득된 이미지 내에 메타 데이터로 처리되어 이미지 분석 장치(2000)로 송신되거나 이미지와는 별개로 이미지 분석 장치(2000)로 전달될 수 있다. In this case, the above-described data may be processed as metadata in the acquired image and transmitted to the
이미지 획득 장치(1000)는 MRI, CT 및 X-ray 등 의료용 이미지를 획득하는 장치일 수 있다. The
이미지 획득 장치(1000)는 다양한 스캔 조건 하에서 이미지를 획득할 수 있다. The
예를 들어, 이미지 장치가 MRI인 경우에는 자기장 세기가 1.5 Tesla(이하 T)인 스캔 조건 하에서 이미지가 획득될 수 있다. 또한, 자기장 세기가 3T인 스캔 조건 하에서 이미지가 획득될 수 있다. 또한, 자기장 세기가 7T 혹은 8T인 스캔 조건 하에서 이미지가 획득될 수 있다. For example, when the imaging device is an MRI, an image may be acquired under a scanning condition in which the magnetic field strength is 1.5 Tesla (hereinafter, T). Also, an image may be acquired under a scan condition in which the magnetic field strength is 3T. Also, an image may be acquired under a scan condition in which the magnetic field strength is 7T or 8T.
다른 예를 들어, 이미지 획득 장치(1000)가 MRI인 경우에는 상술한 바와 같이 이미지 획득 장치(1000)의 TR(Repetition Time), TE(Time to Echo), 양성자 밀도(PD) 혹은 여기된 양성자가 평형 상태로 돌아가는 속도와 관련된 시간 상수(T1), 여기 된 양성자가 평형에 도달하거나 서로 위상을 벗어나는 속도와 관련된 시간 상수(T2) 혹은 이들의 임의의 조합으로 구성되는 세팅 파라미터의 스캔 조건 하에서 이미지가 획득될 수 있다. For another example, when the
또 다른 예를 들어, 이미지 획득 장치(1000)는 CT와 관련된 장치일 수 있으며, 이때, CT 장치에 세팅될 수 있는 전압(voltage), 전류(Current), 노출 시간(Exposure time), 스캐닝 타임(Scanning time), 프로젝션(projection) 및 이들의 임의의 조합들과 관련된 세팅 파라미터의 스캔 조건 하에서 이미지가 획득될 수 있다. As another example, the
또 다른 예를 들어, 이미지 획득 장치(1000)는 X-ray와 관련된 장치일 수 있으며, 이때, X-ray 이미지 장치에 세팅될 수 있는 관전압, 관전류, 촬영 시간, X선관장치와 디텍터 사이의 거리(SID), X선관 지지장치의 각도 및 이들의 임의의 조합과 관련된 세팅 파라미터의 스캔 조건 하에서 이미지가 획득될 수 있다.As another example, the
또한, 방사선을 조사하는 시술자(applicator)의 성향에 따라 이미지가 상이하게 획득될 수 있다. 이때, 시술자의 성향에 대한 정보가 파라미터화될 수 있다. 또한, 시술자의 성향에 대한 파라미터는 후술할 스캔 조건을 고려하여 형태학적 값이나 형태학적 지표를 보정하는 것과 관련하여 하나의 고려 요소로 이용될 수 있다. 다시 말해, 시술자의 성향에 따라 형태학적 값이나 형태학적 지표를 보정할 수 있다. 좀 더 구체적으로 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건과 관련하여, 시술자의 식별 정보를 획득할 수 있다. 또한 이미지 분석 장치(2000)는 시술자의 식별 정보에 기초하여 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하도록 구현될 수 있다. 예컨대, 이미지 분석 장치(2000)는 제1 시술자에 의해 촬영된 제1 이미지로부터 계산된 제1 형태학적 값과 제2 시술자에 의해 촬영된 제2 이미지로부터 계산된 제2 형태학적 값 간의 상관관계에 기초하여, 제1 시술자로부터 획득된 대상 이미지로부터 계산된 형태학적 값을 제2 시술자와 관련된 형태학적 값으로 추정하기 위한 보정 파라미터(또는 제2 시술자로부터 획득된 대상 이미지로부터 계산된 형태학적 값을 제1 시술자와 관련된 형태학적 값으로 추정하기 위한 보정 파라미터)를 획득할 수 있다. In addition, the image may be obtained differently depending on the tendency of the operator (applicator) to irradiate the radiation. In this case, information on the propensity of the operator may be parameterized. In addition, the parameter for the operator's propensity may be used as a factor to consider in relation to correcting a morphological value or a morphological index in consideration of a scan condition to be described later. In other words, the morphological value or morphological index may be corrected according to the propensity of the operator. In more detail, the
또 다른 예를 들어, 이미지 획득 장치(1000)는 양전자 방사 단층 촬영법(positron emission tomography, PET)을 사용하는 MRI 장치 또는 CT 장치일 수 있다. PET 촬영법을 이용하는 경우 방사성 의약품과 관련된 약물이 이용될 수 있다. 예컨대, 아밀로이드 베타(amyloid beta)를 측정하기 위하여는 18F-florbetapir, 18F-florbetaben, 18F-flutemetamol, 18F-Florapronol 등과 같은 약품(혹은 트레이서(tracer))이 사용될 수 있다. 타우(tau) 단백질을 측정하기 위하여는 18F-flortaucipir 등과 같은 약품(혹은 트레이서(tracer))이 사용될 수 있다. 사용되는 약물은 이미지 획득 장치의 제조사에 따라 상이하게 사용될 수 있다. 이때, 사용되는 약물에 대한 정보가 파라미터화될 수 있다. 이미지 획득 장치에 대하여 사용되는 약물에 대한 파라미터는 스캔 조건으로서 사용될 수 있으며, 후술할 스캔 조건을 고려하여 형태학적 값이나 형태학적 지표를 보정하는 것과 관련하여 하나의 고려 요소로 이용될 수 있다. 다시 말해, 이미지 획득 장치의 제조사 및 사용되는 약물에 기초하여 따라 형태학적 값이나 형태학적 지표를 보정할 수 있다. 좀 더 구체적으로 이미지 분석 장치(2000)는 이미지 획득 장치의 제조사 및 사용되는 약물의 정보를 획득할 수 있으며, 이미지 획득 장치의 제조사 및 사용되는 약물의 정보에 기초하여 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하도록 구현될 수 있다. 예컨대, 이미지 분석 장치(2000)는 제1 약물(예, 18F-florbetapir)을 사용하여 촬영된 제1 이미지로부터 계산된 제1 형태학적 값과 제2 약물(예, 18F-florbetaben)을 사용하여 촬영된 제2 이미지로부터 계산된 제2 형태학적 값 간의 상관관계에 기초하여, 제1 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제2 약물을 사용하여 획득된 형태학적 값으로 추정하기 위한 제1 보정 파라미터(또는 제2 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제1 약물을 사용하여 획득된 형태학적 값으로 추정하기 위한 보정 파라미터)를 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 제2 약물을 사용하여 촬영된 제2 이미지로부터 계산된 제2 형태학적 값과 제3 약물을 사용하여 촬영된 제3 이미지로부터 계산된 제3 형태학적 값 간의 상관관계에 기초하여, 제2 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제3 약물(예, 18F-flutemetamol)을 사용하여 획득된 형태학적 값으로 추정하기 위한 제2 보정 파라미터(또는 제3 약물을 사용하여 획득된 대상 이미지로부터 계산된 형태학적 값을 제2 약물을 사용하여 획득된 형태학적 값으로 추정하기 위한 보정 파라미터)를 획득할 수 있다. 이때, 제1 보정 파라미터와 제2 보정 파라미터는 상이할 수 있다. As another example, the
또한, 이미지 획득 장치(1000)는 적어도 하나 이상의 세팅 파라미터를 포함하는 스캔 조건 하에서 이미지가 획득될 수 있다. 다시 말해, 상술한 세팅 파라미터들의 다양한 조합에 기초한 스캔 조건 하에서 이미지가 획득될 수 있다. Also, the
예를 들어, 세팅 파라미터가 제1 조합인 제1 스캔 조건 하에서 이미지가 획득될 수 있다. 또한 세팅 파라미터가 제2 조합이며, 자기장 세기가 제1 세기인 제2 스캔 조건 하에서 이미지가 획득될 수 있다. 이에 제한되지 않으며, 이미지 획득 장치(1000)에 의해 획득되는 이미지들은 세팅 파라미터의 다양한 조합에 따른 다양한 스캔 조건 하에서 획득된 이미지들일 수 있다. For example, an image may be acquired under a first scan condition in which the setting parameters are a first combination. Also, an image may be acquired under a second scan condition in which the setting parameter is the second combination and the magnetic field strength is the first strength. The present invention is not limited thereto, and images acquired by the
또한, 이미지 획득 장치(1000)는 복수 개의 이미지 획득 장치(1000)로 구성될 수 있다. Also, the
이때, 복수의 이미지 획득 장치(1000)는 상이한 제조사에 의해 제조된 장치일 수 있다. 상이한 제조사에 제조된 장치에 의해 획득된 이미지들은, 스캔 조건과 세팅 파라미터가 동일하더라도 밝기, 강도 등 일부 특성이 상이할 수 있다. 따라서, 동일한 대상체에 대하여 의료 이미지를 획득하더라도 제조사 장치에 따라 의료 이미지에 기초한 형태학적 지표가 상이할 수 있다.In this case, the plurality of
따라서, 후술할 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의하여 스캔 조건과 세팅 파라미터 혹은 이미지 장치의 제조사에 따른 변수를 통제하기 위한 보정 파라미터 획득 동작이 요구된다. Accordingly, a correction parameter acquisition operation for controlling a scan condition, a setting parameter, or a variable according to a manufacturer of an image device is required by the correction
이미지 획득 장치(1000)에 의해 획득된 이미지는 신체의 특정 부위의 해부학적 구조와 관련된 정보를 포함할 수 있다. 또한, 신체의 특정 부위는 의학 촬영(medical imaging)이 활용될 수 있는 모든 부위에 대응될 수 있다. 설명의 편의를 위하여 후술할 도면과 명세서에서는 뇌(brain)와 관련된 이미지를 중심으로 서술하나, 이는 예시에 불과하며 본 출원에 개시된 다양한 실시예들은 뇌 이외의 임의의 적절한 신체의 부위(예를 들어, 폐, 유방, 심장, 관절, 혈관 등)에 대하여도 적용될 수 있다.The image acquired by the
한편, 본 출원의 일 실시예에 따른 이미지 획득 장치(1000)는 서버의 형태로 구현될 수 있다. 이때, 서버는 의료 이미지 및 의료 이미지와 관련된 정보들을 저장하도록 구성될 수 있다. 또한 서버는 의료 이미지 및 의료 이미지와 관련된 정보들을 수정하거나 가공(processing)하도록 구현될 수 있다.Meanwhile, the
또한 의료 이미지들은 이미지 분석 장치(2000)의 메모리 혹은 서버에 저장되어 보정 파라미터를 계산하거나 퀄리티 컨트롤을 수행하거나 분석 결과를 출력하는 데 활용될 수 있다. 이와 관련하여는, 이하에서 자세히 후술한다. Also, the medical images may be stored in a memory or a server of the
이하에서는 도 2를 참고하여, 본 출원의 일 실시예에 따른 이미지 분석을 위한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 출력 장치(2600)를 설명한다. 도 2는 본 출원의 일 실시예에 따른 의료 이미지 분석을 위한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 출력 장치(2600)의 개략도이다.Hereinafter, an
이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지를 학습 장치(2200)에 의해 학습된 인공신경망을 이용하여 세그멘테이션하거나, 이미지 내에 포함된 타겟 요소의 형태학적 지표를 계산하는 동작을 수행할 수 있다.The
학습 장치(2200)는 복수의 이미지 데이터 세트를 이용하여, 이미지의 세그멘테이션을 위한 신경망 모델 혹은 이미지의 퀄리티 컨트롤을 위한 신경망 모델 등을 학습시키는 동작을 수행할 수 있다. The
보정 파라미터 획득 장치(2400)는 복수의 이미지 데이터 세트와 스캔 조건에 관한 데이터를 이용하여, 이미지 분석 장치(2000)에서 획득한 타겟 이미지(혹은 대상 이미지)의 타겟 요소와 관련된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를 계산하는 동작을 수행할 수 있다. The correction
도 2에 도시된 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400)는 임의의 통신 방식을 이용하여 서로 데이터들을 송수신하도록 구현될 수 있다. The
예를 들어, 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400)는 서버를 공유하도록 구현될 수 있다. For example, the
도 2에 도시한 바에 따르면, 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400)가 별개의 장치로 제공되는 것으로 도시하였으나, 이는 예시에 불과하며, 이미지 분석 장치(2000), 학습 장치(2200) 및/또는 보정 파라미터 획득 장치(2400)는 단일한 장치로 구현될 수도 있을 것이다. 혹은 이미지 분석 장치(2000), 학습 장치(2200) 및 보정 파라미터 획득 장치(2400) 중 일부는 별개의 장치로 제공하고 나머지 장치는 단일한 장치로 구현될 수 있다.As shown in FIG. 2 , the
이하에서는 도 3을 참고하여 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 구성을 서술한다. 도 3은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 관한 블록도이다. Hereinafter, the configuration of the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 제1 통신 모듈(2010), 제1 메모리(2020), 제1 컨트롤러(2030)를 포함할 수 있다. The
제1 통신 모듈(2010)은 이미지 획득 장치(1000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 및 후술할 출력 장치(2600)를 포함한 임의의 외부 기기와 통신을 수행할 수 있다. 다시 말해, 이미지 분석 장치(2000)는 제1 통신 모듈(2010)을 통해, 이미지 획득 장치(1000)로부터 이미지를 송수신하거나 학습 장치(2200), 파라미터 획득 장치(2400) 및 후술할 출력 장치(2600), 중계기 및 서버 등을 포함한 외부 기기들과 데이터의 송수신을 할 수 있다. The
예를 들어, 이미지 분석 장치(2000)는, 제1 통신 모듈(2010)을 통해, 이미지 획득 장치(1000)로부터 획득된 이미지, 학습 장치(2200)로부터 학습된 신경망 모델에 관한 정보, 보정 파라미터 획득 장치(2400)로부터 계산된 보정 파라미터와 관련된 정보들을 수신할 수 있다. 또 다른 예를 들어, 이미지 분석 장치(2000)는, 제1 통신 모듈(2010)을 통해, 이미지의 스캔 조건과 관련된 정보를 보정 파라미터 획득 장치(2400)로 송신하거나 분석 결과와 관련된 정보들을 출력 장치(2600)로 송신할 수 있다. 또 다른 예로, 이미지 분석 장치(2000)는 제1 통신 모듈(2010)을 통해 인터넷에 접속하여 이미지와 관련된 각종 데이터, 스캔 조건과 관련된 정보, 분석 결과와 관련된 정보들을 업로드할 수 있다.For example, the
제1 통신 모듈(2010)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 이미지 분석 장치(2000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.The
여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.Here, in the case of the wired type, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.
또 여기서, 무선 타입의 경우에는 주로 블루투스(Bluetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of the wireless type, a communication method of a Wireless Personal Area Network (WPAN) series such as Bluetooth or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.
제1 메모리(2020)는 각종 정보를 저장할 수 있다. 제1 메모리(2020)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 제1 메모리(2020)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. The
제1 메모리(2020)는 이미지 분석 장치(2000)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 제1 메모리(2020)에는 이미지 분석 장치(2000)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 이미지 분석 장치(2000)의 각 구성을 동작시키기 위한 프로그램을 비롯해 이미지 분석 장치(2000)의 동작에 필요한 각종 데이터가 저장될 수 있다. 예를 들어, 제1 메모리(2020)에는 이미지와 관련된 각종 데이터, 스캔 조건과 관련된 정보, 분석 결과와 관련된 정보들이 저장될 수 있다. The
제1 컨트롤러(2030)는 이미지 분석 장치(2000)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제1 컨트롤러(2030)는 제1 메모리(2020)로부터 이미지 분석 장치(2000)의 동작을 위한 프로그램을 로딩하여 실행할 수 있다.The
제1 컨트롤러(2030)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The
한편, 도 3을 다시 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 입력 모듈(2040)과 출력 모듈(2050)을 포함할 수 있다. Meanwhile, referring again to FIG. 3 , the
이때, 이미지 분석 장치(2000)는 입력 모듈(2040) 및 출력 모듈(2050)을 이용하여 사용자의 입력을 획득하고, 사용자의 입력에 대응되는 정보를 출력할 수 있다. 예컨대, 이미지 분석 장치(2000)는 입력 모듈(2040)을 이용하여 데이터 획득을 요청하는 사용자 입력, 전 처리를 지시하는 사용자 입력, 이미지 세그멘테이션과 관련된 사용자 입력 및 형태학적 지표의 계산과 관련된 레퍼런스 스캔 조건에 대한 사용자 입력을 획득하고, 대응되는 정보를 출력 모듈(2050)을 통하여 출력할 수 있다.In this case, the
일 예로, 사용자는 입력 모듈(2040)을 통하여 이미지 분석 장치(2000)의 분석과 관련된 조건이나 설정을 입력할 수 있다. For example, the user may input conditions or settings related to analysis of the
예를 들어, 사용자는 입력 모듈(2040)을 통하여 타겟 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터와 관련된 레퍼런스 스캔 조건을 설정할 수 있다. 이때, 이미지 분석 장치(2000)는 입력 모듈(2040)로부터 수신된 레퍼런스 스캔 조건에 기초하여 형태학적 값이나 형태학적 지표의 보정을 수행할 수 있다. For example, the user may set a reference scan condition related to a correction parameter for correcting a morphological value or a morphological index obtained from the target image through the
입력 모듈(2040)은 마우스, 키보드, 터치 패드 등 다양한 형태로 구현될 수 있다. The
출력 모듈(2050)은 이미지 분석 장치(2000)의 이미지 분석 동작 상에서 알림이나 이미지 분석 결과 등을 출력하도록 제공될 수 있다.The
예를 들어, 이미지 분석 장치(2000)가 이미지의 퀄리티를 체크하는 동작을 수행하는 경우, 타겟 이미지에 아티팩트가 존재한다는 알림창이 출력 모듈(2050)을 통하여 제공될 수 있다. For example, when the
다른 예를 들어, 이미지 분석 장치(2000)가 이미지의 퀄리티를 체크하는 동작을 수행하는 경우, 타겟 이미지에 심각한 아티팩트가 존재하여 이미지 분석 여부를 선택하도록 알림창이 출력 모듈(2050)을 통하여 제공될 수 있다. As another example, when the
또 다른 예를 들어, 이미지 분석 장치(2000)가 타겟 이미지의 세그멘테이션 동작을 수행하는 경우, 세그멘테이션의 결과가 출력 모듈(2050)을 통하여 제공될 수 있다. As another example, when the
또 다른 예를 들어, 이미지 분석 장치(2000)가 타겟 이미지의 분석이 완료된 경우, 타겟 이미지의 분석 결과가 출력 모듈(2050)을 통하여 제공될 수 있다. As another example, when the
출력 모듈(2050)은 디스플레이 등 다양한 형태로 구현될 수 있다. The
또한, 이미지 분석 장치(2000)는 입력 모듈(2040)을 통하여 사용자의 입력을 획득하고 출력 모듈(2050)을 통하여 사용자의 입력에 대응되는 정보를 출력하기 위한 유저 인터페이스를 더 포함할 수 있다.Also, the
도 3에서는, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)가 입력 모듈(2040) 및 출력 모듈(2050)을 포함하는 것으로 도시하였으나, 이는 예시에 불과하며, 입력 모듈(2040) 및 출력 모듈(2050)이 생략된 이미지 분석 장치(2000)가 제공될 수 있다. In FIG. 3 , the
한편, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 서버의 형태로 구현될 수 있다. 이때, 서버는 이미지 획득 장치(1000)로부터 송신된 의료 이미지 및 의료 이미지와 관련된 정보들을 저장하도록 구성될 수 있다. 또한 서버는 이미지 획득 장치(1000)로부터 송신된 의료 이미지 및 의료 이미지와 관련된 정보들을 수정하거나 가공(processing)하도록 구현될 수 있다. Meanwhile, the
또한, 이미지 분석 장치(2000)의 서버는 이미지 획득 장치(1000)의 서버와 별개로 구현될 수 있으나, 이에 제한되지 않으며 이미지 획득 장치(1000)의 서버와 이미지 분석 장치(2000)의 서버는 단일한 형태로 구현될 수 있다. 다시 말해, 이미지 획득 장치(1000)와 이미지 분석 장치(2000)은 공통의 서버를 가지는 형태로 구현될 수 있다. In addition, the server of the
한편, 다시 도 2를 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 출력 장치(2600)와 통신을 수행하도록 구현될 수 있다. Meanwhile, referring again to FIG. 2 , the
본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)의 분석 결과를 수신하여, 사용자에게 이미지 분석 결과를 시각적인 형태로 출력하도록 구현될 수 있다. The
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 이미지의 퀄리티와 관련된 정보를 수신 받아 사용자에게 출력하도록 구현될 수 있다. 예를 들어, 출력 장치(2600)는 이미지의 퀄리티와 관련된 지표나 이미지의 퀄리티와 관련된 이미지 분석 결과의 신뢰도와 관련된 코멘트를 출력하도록 구현될 수 있다. As an embodiment, the
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 형태학적 지표와 관련된 분석 결과를 수신 받아 사용자에게 출력하도록 구현될 수 있다. As an embodiment, the
예를 들어, 출력 장치(2600)는 대상체의 형태학적 지표와 관련된 분석 결과를 비교 대상체 집단의 통계 자료와 비교 분석한 결과를 사용자에게 출력하도록 구현될 수 있다. 이때, 비교 대상체 집단의 통계 자료와 비교 분석한 결과는 임의의 적절한 그래프와 같은 형태의 통계적인 정보로 가공되어 출력될 수 있다. 또한, 출력 장치(2600)는 대상체의 복수의 부위의 형태학적 지표와 관련된 분석 결과들을 함께 제공하도록 구현될 수 있다. For example, the
다른 예를 들어, 출력 장치(2600)는 대상체의 형태학적 지표와 관련된 분석 결과를 출력하면서, 형태학적 지표와 관련된 신체 부위가 어디에 해당하는 지와 관련된 정보를 시각적인 형태로 출력하도록 제공될 수 있을 것이다. As another example, the
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 이미지의 세그멘테이션 결과를 수신 받아 사용자에게 출력되도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)의 세그멘테이션 결과는 이미지 내의 라벨링된 결과일 수 있다. 이때, 이미지 분석 장치(2000) 혹은 출력 장치(2600)는 라벨링된 결과에 기초하여 신체의 해부학적 구조에 따라 시각적으로 이미지를 가공할 수 있으며, 출력 장치(2600)는 신체의 해부학적 구조를 시각적으로 구분한 이미지를 사용자에게 출력하도록 구현될 수 있다. As an embodiment, the
일 실시예로, 본 출원의 일 실시예에 따른 출력 장치(2600)는 이미지 분석 장치(2000)로부터 레포트를 수신 받아 사용자에게 출력되도록 구현될 수 있다.As an embodiment, the
이하에서는 도 4를 참고하여 본 출원의 일 실시예에 따른 출력 장치(2600)의 구성과 동작에 대하여 서술한다. 도 4는 본 출원의 일 실시예에 따른 출력 장치의 블록도이다.Hereinafter, the configuration and operation of the
본 출원의 일 실시예에 따른 출력 장치(2600)는 제2 통신 모듈(2610), 제2 메모리(2620), 제2 컨트롤러(2630)를 포함할 수 있다. The
제2 통신 모듈(2610)은 이미지 획득 장치(1000), 이미지 분석 장치(2000)를 포함한 임의의 외부 기기와 통신을 수행할 수 있다. 다시 말해, 출력 장치(2600)는 제2 통신 모듈(2610)을 통해, 이미지 획득 장치(1000)로부터 이미지들을 송수신하거나 이미지 분석 장치(2000)로부터 이미지 분석 결과를 송수신할 수 있다. 또한 출력 장치(2600)는 제2 통신 모듈(2610)을 통해, 중계기 등을 포함한 임의의 외부 기기들과 데이터의 송수신을 할 수 있다.The
예를 들어, 출력 장치(2600)는, 제2 통신 모듈(2610)을 통해, 이미지 획득 장치(1000)로부터 획득된 이미지들, 이미지 분석 장치(2000)로부터 획득된 이미지의 퀄리티와 관련된 분석 결과의 신뢰도에 관련된 데이터, 이미지의 세그멘테이션 결과에 대한 데이터, 형태학적 지표와 같은 데이터 등을 수신할 수 있다. 또 다른 예를 들어, 출력 장치(2600)는, 제2 통신 모듈(2610)을 통해, 후술할 입력 모듈(2640)로부터 수신된 사용자의 입력과 관련된 데이터를 이미지 분석 장치(2000)로 송신하거나 출력 장치(2600) 상에서 가공된 데이터들을 이미지 분석 장치(2000)로 송신할 수 있다. 또 다른 예로, 출력 장치(2600)는 제2 통신 모듈(2610)을 통해 인터넷에 접속하여 사용자의 입력과 관련된 데이터, 출력 장치(2600) 상에서 가공된 데이터들을 업로드할 수 있다.For example, the
제2 통신 모듈(2610)은 크게 유선 타입과 무선 타입으로 나뉜다. 유선 타입과 무선 타입은 각각의 장단점을 가지므로, 경우에 따라서는 이미지 분석 장치(2000)에는 유선 타입과 무선 타입이 동시에 마련될 수도 있다.The
여기서, 유선 타입의 경우에는 LAN(Local Area Network)이나 USB(Universal Serial Bus) 통신이 대표적인 예이며 그 외의 다른 방식도 가능하다.Here, in the case of the wired type, LAN (Local Area Network) or USB (Universal Serial Bus) communication is a representative example, and other methods are also possible.
또 여기서, 무선 타입의 경우에는 주로 블루투스(RPuetooth)나 직비(Zigbee)와 같은 WPAN(Wireless Personal Area Network) 계열의 통신 방식을 이용할 수 있다. 그러나, 무선 통신 프로토콜이 이로 제한되는 것은 아니므로 무선 타입의 통신 모듈은 와이파이(Wi-Fi) 같은 WLAN(Wireless Local Area Network) 계열의 통신 방식이나 그 외의 알려진 다른 통신 방식을 이용하는 것도 가능하다.In addition, in the case of the wireless type, a communication method of a Wireless Personal Area Network (WPAN) series such as Bluetooth (RPuetooth) or Zigbee may be mainly used. However, since the wireless communication protocol is not limited thereto, the wireless communication module may use a wireless local area network (WLAN)-based communication method such as Wi-Fi or other known communication methods.
제2 메모리(2620)는 각종 정보를 저장할 수 있다. 제2 메모리(2620)에는 각종 데이터가 임시적으로 또는 반영구적으로 저장될 수 있다. 제2 메모리(2620)의 예로는 하드 디스크(HDD: Hard Disk Drive), SSD(Solid State Drive), 플래쉬 메모리(flash memory), 롬(ROM: Read-Only Memory), 램(RAM: Random Access Memory) 등이 있을 수 있다. The
제2 메모리(2620)는 출력 장치(2600)에 내장되는 형태나 탈부착 가능한 형태로 제공될 수 있다. 제2 메모리(2620)에는 출력 장치(2600)를 구동하기 위한 운용 프로그램(OS: Operating System)이나 출력 장치(2600)의 각 구성을 동작시키기 위한 프로그램을 비롯해 출력 장치(2600)의 동작에 필요한 각종 데이터가 저장될 수 있다. 예를 들어, 제2 메모리(2620)에는 이미지와 관련된 각종 데이터, 분석 결과와 관련된 정보 및 사용자의 입력 데이터들이 저장될 수 있다. The
제2 컨트롤러(2630)는 출력 장치(2600)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제2 컨트롤러(2630)는 제2 메모리(2620)로부터 출력 장치(2600)의 동작을 위한 프로그램을 로딩하여 실행할 수 있다.The
제2 컨트롤러(2630)는 하드웨어나 소프트웨어 또는 이들의 조합에 따라 CPU(Central Processing Unit)나 이와 유사한 장치로 구현될 수 있다. 하드웨어적으로 전기적 신호를 처리하여 제어 기능을 수행하는 전자 회로 형태로 제공될수 있으며, 소프트웨어적으로는 하드웨어적 회로를 구동시키는 프로그램이나 코드 형태로 제공될 수 있다.The
한편, 도 4를 다시 참고하면, 본 출원의 일 실시예에 따른 출력 장치(2600)는 입력 모듈(2640) 및 출력 모듈(2650)을 포함할 수 있다.Meanwhile, referring again to FIG. 4 , the
이때, 출력 장치(2600)는 입력 모듈(2640) 및 출력 모듈(2650)을 이용하여 사용자의 입력을 획득하고, 사용자의 입력에 대응되는 정보를 출력할 수 있다. In this case, the
예컨대, 출력 장치(2600)는 입력 모듈(2640)을 이용하여 데이터 획득을 요청하는 사용자 입력, 전 처리를 지시하는 사용자 입력, 이미지 세그멘테이션과 관련된 사용자 입력 및 형태학적 지표의 계산과 관련된 레퍼런스 스캔 조건과 관련된 사용자 입력을 획득하고, 대응되는 정보를 출력 모듈(2650)을 통하여 출력할 수 있다.For example, the
이때, 출력 장치(2600)는 입력 모듈(2640)을 통하여 사용자의 입력을 획득하고 출력 모듈(2650)을 통하여 사용자의 입력에 대응되는 정보를 출력하기 위한 유저 인터페이스를 더 포함할 수 있다. In this case, the
일 실시예로, 사용자는 입력 모듈(2640)을 통하여 출력 장치(2600)의 출력과 관련된 조건이나 설정을 입력하거나 출력된 복수의 데이터 중 일부를 선택할 수 있다. As an embodiment, the user may input a condition or setting related to the output of the
일 예로, 사용자는 입력 모듈(2640)을 통하여 타겟 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터와 관련된 레퍼런스 스캔 조건을 설정할 수 있다. 이때, 출력 장치(2600)는 입력 모듈(2640)로부터 수신된 레퍼런스 스캔 조건(예, 자기장 강도, 제조사, 이미지 장치의 세팅 파라미터 등)에 기초하여 보정된 형태학적 값이나 보정된 형태학적 지표에 대응되는 분석 결과를 출력하도록 구현될 수 있다. For example, the user may set a reference scan condition related to a correction parameter for correcting a morphological value or a morphological index obtained from the target image through the
예를 들어, 사용자가 자기장 강도를 변화시켜 변화된 자기장 강도에 따른 이미지 분석 결과를 제공받고자 한다면, 자기장 강도에 대한 스캔 조건을 입력 모듈(2640)을 통하여 입력할 수 있다. 이때, 출력 장치(2600)는 사용자에 의해 입력된 자기장 강도에 대한 스캔 조건에 기초하여 보정된 이미지 분석 결과를 출력하도록 구현될 수 있다. 이때, 출력 장치(2600)는 사용자에 의해 입력된 자기장 강도에 대한 스캔 조건과 관련된 입력 데이터를 이미지 분석 장치(2000)로 송신할 수 있으며, 이미지 분석 장치(2000)는 수신된 사용자의 입력에 기초하여 획득한 보정 파라미터에 기초하여 이미지 분석 결과를 수정하여 출력 장치(2600)로 전달할 수 있다. 물론, 출력 장치(2600)가 이미지 분석 장치(2000)로부터 보정 파라미터를 수신 받아 이미지 분석 결과를 수정하여 출력하도록 구현될 수 있다. For example, if the user wants to receive an image analysis result according to the changed magnetic field strength by changing the magnetic field strength, a scan condition for the magnetic field strength may be input through the
이와 관련하여는, 도 66 및 도 67과 관련하여 보다 구체적으로 후술한다.In this regard, it will be described later in more detail with reference to FIGS. 66 and 67 .
다만 상술한 내용은 예시에 불과하며, 이에 제한되지 않고 사용자가 제공받고자 하는 임의의 형태의 정보를 출력하기 위하여 출력 장치(2600)가 입력 모듈(2640)을 통하여 사용자의 입력을 수신하도록 구현될 수 있다. However, the above-described content is merely an example, and the
입력 모듈(2640)은 마우스, 키보드, 터치 패드 등 다양한 형태로 구현될 수 있다. The
출력 모듈(2650)은 이미지 분석 장치(2000)로부터 수신된 이미지 분석 결과 등을 출력하도록 제공될 수 있다.The
예를 들어, 출력 장치(2600)는, 출력 모듈(2650)을 통하여, 이미지 분석 장치(2000)로부터 수신한 타겟 이미지에 아티팩트가 존재하는지 여부, 그로 인한 분석 결과의 신뢰도에 대한 정보를 텍스트나 임의의 적절한 시각적인 형태로 출력할 수 있다.For example, the
다른 예를 들어, 출력 장치(2600)는, 출력 모듈(2650)을 통하여, 이미지 분석 장치(2000)로부터 수신한 타겟 이미지의 세그멘테이션의 결과를 출력할 수 있다. 이때, 세그멘테이션 결과는 시각적인 그래픽 형태로 신체의 해부학적 구조를 나누어 출력하도록 구현될 수 있다. As another example, the
또 다른 예를 들어, 출력 장치(2600)는, 출력 모듈(2650)을 통하여, 이미지 분석 장치(2000)로부터 수신한 타겟 이미지의 분석 결과를 출력할 수 있다. 이때, 타겟 이미지의 분석 결과는 레포트의 형식으로 출력될 수 있다. 또한, 타겟 이미지의 분석 결과에 포함된 해부학적 구조의 형태학적 값이나 형태학적 지표가 그래프와 같은 통계적인 기법을 이용하여 출력되도록 구현될 수 있다. 또한, 타겟 이미지의 분석 결과에 포함된 해부학적 구조의 형태학적 값이나 형태학적 지표들은 비교 대상체 집단의 통계 자료와 비교하여 그래프와 같은 통계적인 기법을 이용하여 출력되도록 구현될 수 있다.As another example, the
출력 모듈(2650)은 디스플레이 등 다양한 형태로 구현될 수 있다. The
상술한 바에 따르면, 이미지 분석 장치(2000)와 출력 장치(2600)는 분리된 장치로 설명하였다. 다만, 이는 예시에 불과하며 이미지 분석 장치(2000)와 출력 장치(2600)는 단일한 장치로 구현될 수 있다. As described above, the
이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 전달된 의료 이미지를 수신하여, 의료 이미지의 정렬, 의료 이미지의 밝기 혹은 강도(intensity) 등의 정규화, 노이즈 제거 등의 전 처리(pre-processing)를 수행할 수 있다. The
또한, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 전달된 의료 이미지를 수신하여, 의료 이미지의 세그멘테이션을 수행할 수 있다. 이때, 본 출원의 일 실시예에 따른 의료 이미지의 세그멘테이션은 학습된 신경망 모델을 이용하여 수행될 수 있다. Also, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 의료 이미지의 퀄리티를 컨트롤하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 의료 이미지 분석 결과에 대한 신뢰도를 높일 수 있다. The
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체로부터 획득된 의료 이미지에 기초하여 형태학적 지표를 계산하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 대상체의 신체의 해부학적 구조와 관련되어 정확한 형태학적 지표가 계산될 수 있다. 이를 통하여 대상체의 질환에 대한 정확하고 객관적인 지표를 제공할 수 있다는 유리한 효과가 존재한다. 특히, 대상체와 관련된 뇌 이미지를 표준 뇌 모델에 정합하지 않고 이미지 세그멘테이션하여 형태학적 지표를 계산할 수 있기 때문에 개인화된 뇌 질환과 관련된 진단 보조 지표를 제공할 수 있다. The
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 의료 이미지가 획득된 스캔 조건 혹은 신체 부위를 고려하여, 형태학적 값이나 형태학적 지표를 보정하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 대상체의 신체의 해부학적 구조와 관련되어 정확한 형태학적 지표가 계산될 수 있다. 다시 말해, 스캔 조건이나 신체 부위에 따라 계산된 형태학적 값에 약간의 오차가 존재할 수 있는데, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 스캔 조건이나 신체 부위를 고려하여 1차적으로 계산된 형태학적 값이나 형태학적 지표를 보정할 수 있다. 이를 통하여, 대상체의 질환에 대한 정확하고 객관적인 지표를 제공할 수 있다는 유리한 효과가 존재한다. The
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 다양한 이미지 분석 결과에 대하여 대상체의 상태 혹은 진단 분야에 따라 우선 순위를 부여하여 우선 순위에 기초하여 선별된 이미지 분석 결과들을 출력하는 동작을 수행할 수 있다. 따라서, 본 출원의 일 실시예의 이미지 분석 장치(2000)에 따르면, 대상 의료 이미지의 분석을 통해 획득되는 다양한 지표 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공하여 사용자 편의를 증진시킬 수 있다.The
이하에서는 이미지 분석 장치(2000)의 일 실시예에 의해 수행되는 몇몇 동작들에 대해서 보다 구체적으로 설명한다. Hereinafter, some operations performed by an embodiment of the
이하에서는 설명의 편의를 위하여 뇌(brain)와 관련된 이미지를 분석하는 실시예를 중심으로 서술한다. 다만, 뇌에 제한되지 않으며 본 출원에 개시된 다양한 실시예들은 뇌 이외의 임의의 적절한 신체의 부위에 대한 의료 이미지에 대하여도 적용될 수 있다. Hereinafter, for convenience of explanation, an embodiment of analyzing images related to a brain will be mainly described. However, it is not limited to the brain and the various embodiments disclosed in the present application may be applied to medical images of any suitable body part other than the brain.
또한, 이하에서는 의료 이미지, 뇌 이미지, 대상 이미지(혹은 타겟 이미지) 등을 혼용하여 사용하나, 이는 설명의 편의를 위한 것일 뿐이며, 의료 이미지, 뇌 이미지, 대상 이미지(혹은 타겟 이미지)는 모두 이미지 분석 장치(2000, 3000, 4000)에 의해 분석될 이미지를 지칭하는 것으로 해석되어야 한다. In addition, hereinafter, medical image, brain image, target image (or target image), etc. are used interchangeably, but this is only for convenience of explanation, and medical image, brain image, target image (or target image) are all image analysis It should be construed as referring to an image to be analyzed by the
또한, 이하에서의 내용은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000, 3000, 4000)에 의해 수행될 수 있다. 이미지 분석 장치를 지칭하는 도면 부호는 설명의 편의상 단순히 이미지 분석 장치의 동작들을 구별하여 설명하기 위하여 구분한 것에 불과하며, 도면 부호에 의하여 이미지 분석 장치가 제한되지 않는다. In addition, the following contents may be performed by the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌 이미지 및 뇌 이미지와 관련된 정보를 획득할 수 있다. The
구체적으로 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 뇌 이미지를 획득할 수 있다. 또한 이미지 분석 장치(2000)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치(예, 서버)로부터 뇌 이미지와 관련된 정보를 획득할 수 있다. In more detail, the
좀 더 구체적으로 이미지 분석 장치(2000)는 제1 통신 모듈(2010)을 통하여 이미지 획득 장치(1000)로부터 뇌 이미지와 뇌 이미지와 관련된 데이터들을 획득할 수 있다. In more detail, the
이때, 뇌 이미지의 형식은 다양한 의료 이미지의 형식일 수 있다. 예를 들어, 뇌 이미지는 DICOM, Nifti(Neuroimaging Ingormatics Technology Initiative), 혹은 임의의 적절한 포맷일 수 있다.In this case, the form of the brain image may be a form of various medical images. For example, the brain image may be in DICOM, Neuroimaging Ingormatics Technology Initiative (Nifti), or any suitable format.
뇌 이미지와 관련된 데이터들은 뇌 이미지에 포함된 데이터들, 뇌 이미지가 획득된 스캔 조건과 관련된 데이터, 뇌 이미지의 대상체에 대한 데이터들을 포괄하는 의미일 수 있다. The data related to the brain image may include data included in the brain image, data related to a scan condition in which the brain image is obtained, and data about an object of the brain image.
이때, 뇌 이미지에 포함된 데이터들은 뇌 이미지 내에 포함된 픽셀 혹은 복셀과 관련된 데이터, 뇌 이미지의 방향(orientation)과 관련된 데이터 및 뇌 이미지에 대하여 구조화된 임의의 메타 데이터(metadata)일 수 있다. In this case, the data included in the brain image may be data related to pixels or voxels included in the brain image, data related to the orientation of the brain image, and arbitrary metadata structured with respect to the brain image.
특히, 후술할 뇌 이미지가 획득된 스캔 조건과 관련된 데이터 혹은 뇌 이미지의 대상체에 대한 데이터들이 메타데이터로서 뇌 이미지에 대하여 구조화될 수 있다. In particular, data related to a scan condition in which a brain image, which will be described later, or data about an object of the brain image are structured with respect to the brain image as metadata.
한편, 뇌 이미지가 획득된 스캔 조건과 관련된 데이터들은 뇌 이미지가 획득된 이미지 획득 장치(1000)의 자기장 세기, 이미지 획득 장치(1000)의 이미지 장치의 세팅 파라미터 혹은 이미지 장치의 제조사와 관련된 데이터들일 수 있다. On the other hand, the data related to the scan condition in which the brain image was acquired may be the magnetic field strength of the
스캔 조건에 따라 뇌 이미지로부터 획득된 형태학적 수치들이 영향을 받을 수 있기 때문에, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건과 관련된 데이터를 획득하여 형태학적 수치들에 대한 보정을 수행할 수 있다. 이와 관련하여는 도 58 내지 도 67과 관련하여 자세히 후술한다. Since the morphological values obtained from the brain image may be affected according to the scan conditions, the
뇌 이미지의 대상체에 대한 데이터들은, 이미지 분석 장치(2000)에 의해 분석될 타겟 이미지의 대상체의 관한 인적 정보들이나 의료 정보들일 수 있다. 예를 들어, 뇌 이미지의 대상체에 대한 데이터들은 대상체의 성별, 나이 등과 관련된 인적 정보들 및 뇌질환 (예, 치매, 알츠하이머 병, 우울증, 뇌졸증 등)과 관련된 설문조사 정보 혹은 기저 질환과 관련된 정보 등과 관련된 각종 의료 정보들을 포함할 수 있다. The data on the object of the brain image may be personal information or medical information about the object of the target image to be analyzed by the
특히, 성별과 나이는 뇌질환에 있어 중요한 변수들이기 때문에, 대상체의 성별과 나이와 관련된 데이터들은 이미지 분석 장치(2000)가 보정 파라미터를 결정하거나 획득하는 데 기초가 될 수 있다. 예를 들어, 분석할 대상 이미지가 성별 및 나이와 관련된 제1 특성을 가지는 제1 대상체로부터 획득되었을 경우, 이미지 분석 장치(2000)는 대상 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터를, 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득된 보정 파라미터로 결정할 수 있다. 예컨대, 이미지 분석 장치(2000)는 대상 이미지의 제1 대상체와 유사한 나이 및 동일한 성별을 가지는 제2 대상체로부터 획득된 보정 파라미터를 대상 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터로 결정할 수 있다. In particular, since gender and age are important variables in brain disease, data related to the subject's gender and age may be a basis for the
또는, 대상체의 성별과 나이와 관련된 데이터들은 성별과 나이에 따른 대상체의 형태학적 지표의 상대적인 백분위를 통계학적인 기법을 활용하여 출력하는데 고려될 수 있다. Alternatively, data related to the subject's gender and age may be considered to output a relative percentile of the subject's morphological indices according to gender and age using a statistical technique.
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌 이미지 분석과 관련된 동작과 관련된 정보들을 획득할 수 있다. Also, the
구체적으로 이미지 분석 장치(2000)는, 뇌 이미지를 전 처리하거나 정렬하기 위한 뇌와 관련된 템플릿(Template)과 관련된 정보들을 임의의 외부 장치로부터 획득할 수 있다. 이와 관련하여는, 도 5, 도 6 및 도 48과 관련하여 자세히 후술한다. Specifically, the
또한, 이미지 분석 장치(2000)는, 임의의 외부 장치로부터 뇌 이미지를 세그멘테이션하기 위한 기준이 되는 뇌 아틀라스와 관련된 정보들을 획득할 수 있다. Also, the
일 예로, 뇌 아틀라스와 관련된 정보들은 뇌의 구조와 관련된 아틀라스와 관련된 정보일 수 있다. 예를 들어, 뇌의 구조와 관련된 아틀라스는 Automated Anatomical Labeling (Tzourio-Mazoyer 2002), Desikan-Killiany Atlas (Desikan 2006), Destrieux Atlas (Destrieux 2010), Harvard-Oxford cortical/subcortical atlases (Makris 2006), MICCAI 2012 Multi-Atlas Labeling Workshop and Challenge (Neuromorphometrics), Hammersmith atlas (Hammers 2003, Gousias 2008, Faillenot 2017), HCP MMP 1.0 (Glasser 2016), JuBrain/Juelich histological atlas (Eickhoff 2005) 혹은 MarsAtlas (Auzias 2016)일 수 있다. For example, the information related to the brain atlas may be information related to the atlas related to the structure of the brain. For example, atlas related to brain structure include Automated Anatomical Labeling (Tzourio-Mazoyer 2002), Desikan-Killiany Atlas (Desikan 2006), Destrieux Atlas (Destrieux 2010), Harvard-Oxford cortical/subcortical atlases (Makris 2006), MICCAI 2012 Multi-Atlas Labeling Workshop and Challenge (Neuromorphometrics), Hammersmith atlas (Hammers 2003, Gousias 2008, Faillenot 2017), HCP MMP 1.0 (Glasser 2016), JuBrain/Juelich histological atlas (Eickhoff 2005) or MarsAtlas (Auzias 2016) have.
다른 예로, 뇌 아틀라스와 관련된 정보들은 뇌의 기능과 관련된 아틀라스와 관련된 정보일 수 있다. 예를 들어, 뇌의 기능과 관련된 아틀라스는 Mindboggle 101 (Klein 2012), Cortical Area Parcellation from Resting-State Correlations (Gordon 2016), Consensual Atlas of REsting-state Network (CAREN, Doucet 2019), Brainnetome Atlas parcellation (Fan 2016), Local-Global Parcellation of the Human Cerebral Cortex (Schaefer 2018), Human Motor Area Template (Mayka 2005), Sensorimotor Area Tract Template (Archer 2017), AICHA: An atlas of intrinsic connectivity of homotopic areas (Joliot 2015), Yeo 2011 functional parcellations (Yeo 2011), PrAGMATiC (Huth 2016), fMRI-based random parcellations (Craddock 2011), Voxelwise parcellations (Lead-DBS), SUIT Cerebellar parcellation (Diedrichsen 2006) 혹은 Buckner functional cerebellar parcellation (Buckner 2011)일 수 있다. As another example, the information related to the brain atlas may be information related to the atlas related to the function of the brain. For example, atlas related to brain function include Mindboggle 101 (Klein 2012), Cortical Area Parcellation from Resting-State Correlations (Gordon 2016), Consensual Atlas of REsting-state Network (CAREN, Doucet 2019), Brainnetome Atlas parcellation (Fan). 2016), Local-Global Parcellation of the Human Cerebral Cortex (Schaefer 2018), Human Motor Area Template (Mayka 2005), Sensorimotor Area Tract Template (Archer 2017), AICHA: An atlas of intrinsic connectivity of homotopic areas (Joliot 2015), Yeo 2011 functional parcellations (Yeo 2011), PrAGMATiC (Huth 2016), fMRI-based random parcellations (Craddock 2011), Voxelwise parcellations (Lead-DBS), SUIT Cerebellar parcellation (Diedrichsen 2006) or Buckner functional cerebellar parcellation (Buckner 2011) can
이미지 분석 장치(2000)는 상술한 뇌와 관련된 뇌 아틀라스에 대한 정보를 학습 장치(2200)로 송신할 수 있으며, 학습 장치(2200)는 뇌 아틀라스에 대한 정보를 기초로, 뇌 이미지의 세그멘테이션을 위한 신경망 모델을 학습하도록 구현될 수 있다.The
다만, 상술한 뇌의 구조와 관련된 아틀라스 혹은 뇌의 기능과 관련된 아틀라스에 대한 정보는 예시일 뿐이며, 이미지 분석 장치(2000)는 임의의 적절한 뇌와 관련된 아틀라스 정보를 획득하여 학습 장치(2200)의 이미지 세그멘테이션을 위한 인공 신경망 모델을 학습시키는 데 기초가 되도록 구현될 수 있다. However, the above-described atlas related to the brain structure or information about the atlas related to brain functions is only an example, and the
이미지 분석 장치(2000)는, 이미지 분석 장치(2000)의 입력 모듈(2040) 혹은 출력 장치(2600)의 입력 모듈(2640)로부터 사용자의 입력을 수신할 수 있다. The
이미지 분석 장치(2000)는, 진단 대상 질병과 관련된 사용자 입력을 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 대상 이미지와 관련된 진단 대상 질병에 대응되는 뇌 질환(예, 치매, 우울증, 뇌졸증 등)과 관련된 사용자 입력을 획득할 수 있다. The
이미지 분석 장치(2000)는 환자와 관련된 사용자 입력을 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 대상 이미지와 관련된 환자의 성별, 나이, 이름 등과 관련된 사용자의 입력을 획득할 수 있다. The
이미지 분석 장치(2000)는, 이미지 분석과 관련된 사용자 입력을 획득할 수 있다. The
일 예로, 이미지 분석 장치(2000)는, 이미지의 전처리와 관련된 사용자 입력을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 대상 이미지의 인텐시티를 보정하거나 노이즈를 제거하는 등 이미지를 처리(processing)하는 것과 관련된 사용자 입력을 획득할 수 있다. For example, the
일 예로, 이미지 분석 장치(2000)는, 세그멘테이션과 관련된 사용자 입력을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는, 세그멘테이션에 고려되는 뇌 아틀라스, 신경망 모델로부터 출력되는 라벨링 데이터를 수정하기 위한 사용자 입력을 획득할 수 있다.For example, the
일 예로, 이미지 분석 장치(2000)는 대상 이미지가 촬영된 스캔 조건에 대한 사용자 입력을 입력 모듈을 통하여 수신할 수 있다. 대상 이미지가 촬영된 스캔 조건에 대한 정보는 대상 이미지의 메타 데이터로 포함되어 획득될 수 있으나, 사용자 입력으로도 획득될 수 있다. For example, the
일 예로, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 계산된 뇌와 관련된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터의 기준과 관련된 레퍼런스 스캔 조건에 대한 사용자 입력을 입력 모듈을 통하여 수신할 수 있다. 이때, 이미지 분석 장치(2000)는 레퍼런스 스캔 조건 등에 대한 사용자 입력에 기초하여 보정 파라미터를 획득하고 뇌와 관련된 형태학적 값이나 형태학적 지표를 보정할 수 있다. 이와 관련하여는, 도 66 및 도 67과 관련하여 자세히 후술한다. For example, the
다른 예를 들어, 이미지 분석 장치(2000)는 이미지 분석 결과를 출력하는 경우, 출력하는 결과들 중 일부를 선택하거나 우선 순위를 부여하기 위한 사용자 입력을 입력 모듈을 통하여 수신할 수 있다. 이때, 이미지 분석 장치(2000)는 사용자 입력에 기초하여 출력될 분석 결과의 정보를 선별적으로 출력하거나 사용자의 우선 순위를 반영한 분석 결과를 출력하도록 구현될 수 있다. 이와 관련하여는, 도 68 내지 도 81에서 자세히 후술한다. As another example, when outputting an image analysis result, the
이미지 분석 장치(2000)가 획득된 데이터들은 이미지 분석 장치(2000)의 제1 메모리(2020) 혹은 이미지 분석 장치(2000)의 임의의 외부 장치(예, 서버)에 저장될 수 있다. 또한 이미지 분석 장치(2000)가 획득된 데이터들은 학습 장치(2200) 혹은 보정 파라미터 획득 장치(2400)에 송신될 수 있다. 또는 이미지 분석 장치(2000)가 획득된 데이터들은 출력 장치(2600)에 송신되거나 임의의 외부 장치(예, 서버)에 송신될 수 있다. The data obtained by the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지의 전 처리를 수행할 수 있다. 이미지 분석 장치(2000)는 이미지 분석 정확도를 향상시키기 위한 전처리를 수행할 수 있다. 이미지 분석 장치(2000)는 이미지를 세그멘테이션의 동작을 수행하기 전에, 보다 정확한 세그멘테이션 결과를 도출하기 위한 이미지의 전 처리를 수행하도록 제공될 수 있다. The
일 예로 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 형식의 변환을 수행하도록 제공될 수 있다. 구체적으로 분석할 이미지들의 형식을 통일함으로써 신경망 모델을 보다 안정적이고 정확하게 학습시킬 수 있다. 좀 더 구체적으로 신경망 모델의 학습에 이용된 이미지와 동일한 형식을 가지는 이미지를 이용하여 이미지 분석을 수행하는 것이 보다 안정적이고 정확할 수 있다. 따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 형식의 변환을 수행하도록 제공될 수 있다.For example, the
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 제1 형식의 이미지를 제2 형식인 이미지로 변환하는 동작을 수행할 수 있다. 예를 들어, 이미지 획득 장치(1000)로부터 획득된 이미지의 형식은 의료 이미지에서 일반적으로 사용하는 DICOM 형식일 수 있다. 이때, DICOM 형식의 이미지를 기초로 이미지의 세그멘테이션이나 형태학적 지표를 계산할 수도 있다. For example, the
다만, 뇌 이미지를 분석하는 데 있어, 뇌 영상분석계통에서는 Nifti 형식의 뇌 이미지를 이용하여 이미지를 분석하거나 인공신경망을 학습시키는 것이 상대적으로 용이할 수 있다. 따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 형식을 Nifti 형식으로 변환하는 동작을 수행하도록 제공될 수 있다. However, in analyzing a brain image, in the brain image analysis system, it may be relatively easy to analyze an image using a Nifti-type brain image or to train an artificial neural network. Accordingly, the
다만, 상술한 형식은 예시에 불과하며 이미지 분석 장치(2000)는 필요에 따라 Nifti 형식 이외의 임의의 적절한 형식으로의 변환 동작을 수행하도록 제공될 수 있을 것이다. 또한, 이미지 획득 장치(1000)로부터 획득된 이미지의 형식이 DICOM 형식 이외의 임의의 형식의 의료 이미지일 수 있으며 이 경우에도 이미지 분석 장치(2000)는 임의의 적절한 형식으로의 변환 동작을 수행하도록 제공될 수 있을 것이다.However, the above-described format is only an example, and the
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지에 존재할 수 있는 노이즈(noise)를 제거하거나 아티팩트(artifact)의 보정을 수행하도록 제공될 수 있다. 예를 들어, 노이즈를 제거하기 위하여 블러링 기법 및 미디안 필터(Median filter)를 이용한 기법이 이용될 수 있다. 이미지 분석 장치(2000)는 노이즈를 제거하고, 아티팩트의 보정을 수행함으로써, 보다 정확한 이미지의 세그멘테이션 결과를 도출할 수 있으며, 정확도가 개선된 세그멘테이션 결과에 기초하여 형태학적 지표를 계산할 수 있기 때문에 높은 신뢰도로 뇌와 관련된 질환에 대하여 객관적인 진단 보조 지표를 제공할 수 있다. For example, the
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 인텐시티(intensity)를 보정하는 동작을 수행하도록 제공될 수 있다. 인텐시티(intensity)를 적절하게 보정함으로써, 이미지에 존재할 수 있는 노이즈(noise)를 제거할 수 있으며, 분석하고자 하는 뇌의 해부학 구조에 특화된 이미지를 획득할 수 있다. As an example, the
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지를 스무딩 처리하는 동작을 수행하도록 제공될 수 있다. 예를 들어, 이미지를 스무딩 처리하는 방법으로서 블러링(RPurring), 가우시안 필터(Gaussian filter)를 이용한 기법이 이용될 수 있다.As an example, the
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지의 비율을 조절하거나 이미지를 자르는 동작을 수행하도록 제공될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 이미지를 자르기 위하여 임의의 적절한 크롭(crop) 기법을 활용하도록 구현될 수 있다. 혹은 이미지 분석 장치(2000)는 이미지의 비율을 조절하기 위하여 온디맨드 이미지 리사이징(Ondemand image resizing) 람다 이미지 리사이징(Lambda image resizing), CILanczosScaleTransform 필터를 이용한 리사이징 방법, CIFilter를 이용한 리사이징 방법 등 임의의 적절한 이미지 리사이징 기법을 활용하도록 구현될 수 있다. As an example, the
일 예로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 획득된 이미지를 이미지가 촬영된 스캔 조건과 상이한 스캔 조건 하에서 촬영된 이미지로 변환하는 동작을 수행할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 MRI 장치의 제1 스캔 조건 하에서 촬영된 이미지를 MRI 장치의 제2 스캔 조건 하에서 촬영된 것과 같은 추정 이미지로 변환하는 동작을 수행하도록 제공될 수 있다. 이러한 이미지 변환 동작은 MR 컨버팅 기술 혹은 인공 지능 모델을 이용하여 수행될 수 있을 것이다. 다만, 이에 제한되지 않으며, 이미지 분석 장치(2000)는 임의의 적절한 소프트웨어 혹은 이미지 프로세싱 기술을 이용하여 스캔 조건을 고려하여 이미지의 변환을 수행하도록 제공될 수 있을 것이다. As an example, the
일 예로, 이미지 분석 장치(2000)는 후술할 학습 장치(2200)에서의 이미지에 대한 전처리 동작에 대응하는 전처리 동작을 수행하도록 구현될 수 있다. 예를 들어, 학습 장치(2200)에서 이미지를 제1 전처리 기법을 사용하여 신경망 모델을 학습시킨 경우에는, 이미지 분석 장치(2000)는 제1 전처리 기법에 대응하는 전 처리 기법으로 대상 이미지를 전처리하도록 구현될 수 있다. 이를 통하여 신경망 모델을 이용하는 이미지 세그멘테이션이 보다 안정적으로 정확하게 구현될 수 있다. As an example, the
이하에서는 도 5 내지 도 6을 참고하여 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 이미지 정렬 관련 동작에 대하여 서술한다. Hereinafter, an image alignment-related operation of the
도 5는 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다. 5 illustrates an example of an image alignment operation of the
도 6은 이미지 분석 장치(2000)의 이미지 정렬 동작의 일 예를 도시한다.6 illustrates an example of an image alignment operation of the
이미지 분석 장치(2000)는 뇌 이미지에 포함된 뇌 이미지의 방향(orientation)과 관련된 데이터에 기초하여, 뇌 이미지를 정렬시키는 동작을 수행하도록 구현될 수 있다. The
일 예로, 이미지 분석 장치(2000)는 이미지의 세그멘테이션 동작을 수행하기 전에 뇌 이미지를 정렬시키는 동작을 수행하도록 구현될 수 있다. As an example, the
예를 들어, 도 5를 참고하면 이미지 획득 장치(1000)는 대상체(100)의 기준 좌표축의 방향(R-A-S)을 고려하여, 촬영된 이미지의 방향과 관련된 데이터(i,j,k)를 함께 획득할 수 있다. 구체적으로 이미지 획득 장치(1000)는 이미지 획득 장치(1000)의 좌표 축에 대한 정보(x,y,z) 및 대상체(100)의 기준 좌표 축에 대한 정보(R-A-S)를 고려하여 촬영된 이미지의 방향과 관련된 데이터(i,j,k)를 획득할 수 있다. For example, referring to FIG. 5 , the
이미지의 방향과 관련된 데이터는 이미지에 대하여 메타 데이터로 구조화될 수 있다. 혹은 이미지와는 별도로 이미지 분석 장치(2000)로 전달될 수 있다. Data related to the orientation of the image may be structured as metadata for the image. Alternatively, the image may be transmitted to the
이미지 분석 장치(2000)는 이미지 방향과 관련된 데이터(i-j-k)를 기초로 하여, 대상체(100)의 RAS 방향(Right-Anterior-Superior 방향)에 대응되도록 이미지를 정렬하도록 구현될 수 있다. The
상술한 이미지 분석 장치(2000)의 이미지 정렬 동작에 의하면, 세그멘테이션 동작을 수행하기 전에, 세그멘테이션의 기초가 되는 뇌 이미지들을 공통된 방향으로 정렬시킬 수 있기 때문에 부정확한 세그멘테이션 결과를 미연에 방지하고, 신경망의 세그멘테이션 동작의 안정성을 확보할 수 있다.According to the image alignment operation of the
이미지 분석 장치(2000)는 뇌 이미지의 공간 정규화를 수행하도록 구현될 수 있다. The
구체적으로 뇌 이미지의 세그멘테이션 등을 위한 인공 신경망 모델은 "학습 데이터"로 이용된 학습 이미지의 공간적 분포에 대응되는 뇌 이미지에 대하여 안정적으로 구동될 수 있다. 다시 말해, 뇌 이미지가 학습 이미지의 공간적 분포와 상이한 경우, 학습된 인공 신경망이 안정적으로 구동되지 않을 가능성이 존재한다. Specifically, an artificial neural network model for segmentation of a brain image may be stably driven with respect to a brain image corresponding to a spatial distribution of a learning image used as "learning data". In other words, if the brain image is different from the spatial distribution of the training image, there is a possibility that the trained artificial neural network may not be driven stably.
따라서, 이미지 분석 장치(2000)는 뇌 이미지의 공간적 불확실성을 줄이기 위하여 뇌 이미지의 공간 정규화를 수행하도록 구현될 수 있다. Accordingly, the
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌 템플렛에 기초하여 뇌 이미지의 공간 정규화를 수행하도록 구현될 수 있다. 구체적으로 이미지 분석 장치(2000)는 뇌 이미지를 뇌 템플렛에 정합함으로써 뇌 이미지의 공간적 분포를 인공 신경망 모델에 대하여 최적의 상태가 되도록 뇌 이미지의 좌표를 변환할 수 있다. For example, the
예를 들어, 뇌 이미지를 정합시키기 위한 뇌 템플릿은 MNI 템플렛, Talairach 템플릿 등일 수 있다. For example, a brain template for registering a brain image may be an MNI template, a Talairach template, or the like.
상술한 바에 따르면, 이미지 분석 장치(2000)가 뇌 이미지를 뇌 템플렛에 정합시키는 동작을 수행한다고 서술하였다. 이때, "정합"이란 뇌 이미지의 뇌의 내부 요소들을 뇌 템플렛의 뇌의 내부 요소에 대응하는 동작이 아니라 단순히 뇌 이미지의 위치적인 공간을 정합하는 의미일 수 있다. As described above, it has been described that the
상술한 이미지 분석 장치(2000)의 공간 정규화 동작에 의하면, 이미지에 대한 공간적 불확실성을 제거할 수 있어 신경망을 이용한 세그멘테이션 동작의 안정성을 확보할 있으며, 정확도가 향상된 세그멘테이션 결과를 획득할 수 있다.According to the spatial normalization operation of the
또한, 뇌 이미지가 뇌 템플렛에 대하여 정합됨으로써 변환된 좌표와 관련된 데이터가 생성될 수 있다. 변환된 좌표와 관련된 데이터는 후술할 세그멘테이션이 완료된 후, 뇌 이미지의 본래의 좌표로 변환하는 데 이용될 수 있다. 다시 말해, 이미지 분석 장치(2000)는 변환된 좌표와 관련된 데이터를 이용하여 뇌 템플릿의 공간적 분포에 기초하여 획득된 세그멘테이션 결과를 원본 뇌 이미지에 대응되도록 변환하는 동작을 수행하도록 구현될 수 있다. In addition, data related to the transformed coordinates can be generated by matching the brain image to the brain template. Data related to the transformed coordinates may be used to transform the original coordinates of the brain image after segmentation, which will be described later, is completed. In other words, the
이러한 이미지 분석 장치(2000)의 동작을 통하여 사용자는 본래의 좌표에 대한 뇌 이미지에 대하여 분석 결과를 제공받을 수 있게 된다. Through the operation of the
예를 들어, 뇌 이미지와 관련된 형태학적 지표를 출력 모듈을 통하여 출력하는 경우에는 보정 파라미터를 이용하여 보정한 형태학적 지표 등으로 출력될 수 있다. 반변, 뇌의 시각적인 정보(예, 도 57에 도시된 info. 13, 혹은 세그멘테이션 결과 등)를 출력 모듈을 통하여 출력하는 경우에는 상술한 변환된 좌표에 기초하여 역변환된 이미지, 즉 원본 뇌 이미지에 기초하여 뇌와 관련된 시각적인 정보들이 출력될 수 있다. For example, when a morphological index related to a brain image is output through an output module, it may be output as a morphological index corrected using a correction parameter. When outputting visual information of the hemiplegia and brain (eg, info. 13 shown in FIG. 57, or the segmentation result, etc.) through the output module, the image is inversely transformed based on the transformed coordinates, that is, the original brain image. Based on the visual information related to the brain may be output.
이하에서는 도 7 내지 도 17을 참고하여 본 출원의 일 실시예에 따른 학습 장치(2200) 및 이미지 분석 장치(2000)의 이미지 세그멘테이션과 관련된 동작에 대하여 서술한다.Hereinafter, operations related to image segmentation of the
본 출원의 일 실시예에 따르면, 이미지 세그멘테이션 동작은 학습된 신경망 모델을 이용하여 수행될 수 있다. 다만, 신경망 모델을 이용하지 않더라도 임의의 적절한 방법을 이용하여 본 출원의 일 실시예에 따른 이미지 세그멘테이션 동작이 구현될 수 있다. According to an embodiment of the present application, the image segmentation operation may be performed using a learned neural network model. However, even if a neural network model is not used, the image segmentation operation according to an embodiment of the present application may be implemented using any suitable method.
이하에서는 이미지 세그멘테이션을 위한 신경망 모델을 학습시키는 동작과 학습된 신경망 모델을 이용하여 이미지 세그멘테이션을 수행하는 내용을 중심으로 서술한다. Hereinafter, the operation of learning the neural network model for image segmentation and the content of performing image segmentation using the learned neural network model will be mainly described.
도 7을 참고한다. 도 7은 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다. See FIG. 7 . 7 is a diagram illustrating a flowchart of a process for image segmentation according to an embodiment of the present application.
도 7을 참고하면, 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스는, 이미지 세그멘테이션을 위한 인공신경망 모델의 학습 프로세스(P1000)와 학습된 인공신경망 모델을 이용한 대상 이미지의 세그멘테이션 프로세스(P2000)를 포함할 수 있다. Referring to FIG. 7 , the process for image segmentation according to an embodiment of the present application includes a learning process (P1000) of an artificial neural network model for image segmentation and a segmentation process (P2000) of a target image using the learned artificial neural network model. may include.
이때, 학습 프로세스(P1000)는 본 출원의 일 실시예에 따른 학습 장치(2200)에 의해 구현될 수 있다. In this case, the learning process P1000 may be implemented by the
또한, 세그멘테이션 프로세스(P2000)는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현될 수 있다. Also, the segmentation process P2000 may be implemented by the
이때, 학습 장치(2200)에서 구현되는 학습 프로세스(P1000)에 의해 획득된 신경망 모델의 파라미터는 임의의 적절한 통신 모듈을 통하여 이미지 분석 장치(2000)로 송신될 수 있다. In this case, the parameters of the neural network model obtained by the learning process P1000 implemented in the
이때, 이미지 분석 장치(2000)는 학습 프로세스(P1000)에 의해 획득된 신경망 모델의 파라미터에 기초하여 대상 이미지의 세그멘테이션을 수행하도록 구현될 수 있다.In this case, the
본 출원의 일 실시예에 따른 학습 프로세스(P1000)는 이미지 데이터 세트를 획득하는 프로세스(P1100), 신경망 모델을 학습시키는 프로세스(P1200), 신경망 모델을 검증하는 프로세스(P1300) 및 신경망 모델의 파라미터를 획득하는 프로세스(P1400)를 포함할 수 있다. The learning process (P1000) according to an embodiment of the present application includes a process (P1100) of acquiring an image data set, a process (P1200) of training a neural network model, a process (P1300) of verifying a neural network model, and parameters of the neural network model and a process P1400 of obtaining.
이하에서 도 8을 참고하여, 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법을 설명한다. 도 8은 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법에 대한 순서도이다. Hereinafter, a method of learning a neural network model of the
도 8을 참고하면, 본 출원의 일 실시예에 따른 학습 장치(2200)의 신경망 모델의 학습 방법은 이미지 데이터 세트를 획득하는 단계(S1100), 이미지 데이터 세트를 스크리닝하는 단계(S1200), 이미지 데이터 세트의 전처리 및 정렬(S1300), 신경망 모델의 학습 및 검증 단계(S1400) 및 신경망 모델 파라미터를 획득하는 단계(S1500)를 포함할 수 있다. Referring to FIG. 8 , the method for learning a neural network model of the
이미지 데이터 세트를 획득하는 단계(S1100)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치들로부터 이미지 데이터 세트들을 획득할 수 있다. In the step of obtaining the image data set ( S1100 ), the
도 9를 참고한다. 도 9는 본 출원의 일 실시예에 따른 이미지 데이터 세트의 예시적인 구조도이다. See FIG. 9 . 9 is an exemplary structural diagram of an image data set according to an embodiment of the present application.
학습 장치(2200)가 획득하는 이미지 데이터 세트(DS)는 적어도 하나 이상의 이미지 데이터들을 포함할 수 있다. 다시 말해, 학습 장치(2200)가 획득하는 이미지 데이터 세트(DS)는 제1 이미지 데이터(ID1), 제2 이미지 데이터(ID2) 및 제n 이미지 데이터(IDn) 등 적어도 하나 이상의 이미지 데이터를 포함할 수 있다. The image data set DS obtained by the
이때, 학습 장치(2200)가 획득하는 이미지 데이터 세트(DS)에 포함된 이미지 데이터는, 이미지 및 라벨과 관련된 데이터를 포함할 수 있다. In this case, the image data included in the image data set DS acquired by the
예를 들어, 도 9를 참고하면, 이미지 데이터 세트(DS)에 포함된 제1 이미지 데이터(ID1)는 제1 이미지(I1) 및 제1 라벨(L1)과 관련된 데이터를 포함할 수 있다. For example, referring to FIG. 9 , the first image data ID1 included in the image data set DS may include data related to the first image I1 and the first label L1 .
구체적으로 제1 라벨(L1)은 뇌 질환을 진단할 수 있는 임상의로부터 수동으로 제1 이미지(I1)에 대하여 라벨링되어 획득될 수 있다. 혹은 제1 라벨(L1)은 임의의 적절한 이미지 세그멘테이션 기법을 이용하여 자동으로 라벨링되어 획득될 수 있다. Specifically, the first label L1 may be obtained by manually labeling the first image I1 from a clinician capable of diagnosing a brain disease. Alternatively, the first label L1 may be automatically labeled and obtained using any suitable image segmentation technique.
이미지 데이터에 포함된 이미지 및 라벨과 관련된 데이터는 본 출원의 일 실시예에 따른 학습 방법과 관련하여 인공 신경망 모델을 학습시키고 인공 신경망 모델을 검증하는 데 기초가 될 수 있다. Data related to images and labels included in image data may be a basis for training an artificial neural network model in relation to a learning method according to an embodiment of the present application and validating the artificial neural network model.
한편, 이미지 데이터 세트(DS)에 포함된 이미지 데이터는 스캔 조건과 관련된 데이터를 포함할 수 있다. 이때, 스캔 조건과 관련된 데이터는 상술한 바와 같이 자기장 강도와 관련된 데이터, 이미지 장치의 세팅 파라미터 및/또는 이미지 장치의 제조사와 관련된 데이터일 수 있다. 또한, 스캔 조건과 관련된 데이터는 이미지 데이터에 대하여 메타 데이터로서 구조화될 수 있다. Meanwhile, image data included in the image data set DS may include data related to a scan condition. In this case, the data related to the scan condition may be data related to the magnetic field strength, a setting parameter of the imaging device, and/or data related to the manufacturer of the imaging device, as described above. In addition, data related to the scan condition may be structured as meta data with respect to the image data.
일 예로, 도 9를 참고하면, 제1 이미지 데이터(ID1)는 제1 이미지 데이터(ID1)가 촬영된 스캔 조건과 관련된 제1 스캔 조건(SC1)과 관련된 데이터를 포함할 수 있다. 예를 들어, 제1 이미지 데이터(ID1)가 3T의 자기장 강도 하에서 촬영되었다면, 3T에 대응되는 자기장 강도와 관련된 정보가 제1 이미지 데이터(ID1)에 대하여 메타 데이터로서 구조화되어 데이터 세트 획득 단계(S1100)를 통하여 학습 장치(2200)로 획득될 수 있다. For example, referring to FIG. 9 , the first image data ID1 may include data related to the first scan condition SC1 related to the scan condition in which the first image data ID1 was captured. For example, if the first image data ID1 is photographed under a magnetic field strength of 3T, information related to the magnetic field strength corresponding to 3T is structured as metadata with respect to the first image data ID1 to obtain a data set (S1100) ) through the
이미지 데이터에 포함된 스캔 조건과 관련된 데이터는, 후술할 대상 이미지로부터 획득된 타겟 요소에 대응되는 형태학적 값 혹은 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하는데 고려될 수 있다. The data related to the scan condition included in the image data may be considered to obtain a correction parameter for correcting a morphological value or a morphological index corresponding to a target element obtained from a target image, which will be described later.
도 9에서는 제1 이미지 데이터(ID1)에 포함된 데이터만을 도시하였으나, 이는 예시에 불과하며, 제2 이미지 데이터(ID2) 혹은 제n 이미지 데이터(IDn) 등을 포함하는 이미지 데이터 세트의 이미지 데이터는 이미지, 라벨 및 스캔 조건과 관련된 데이터를 포함할 수 있다.9 shows only the data included in the first image data ID1, but this is only an example, and the image data of the image data set including the second image data ID2 or the nth image data IDn is It may contain data related to images, labels, and scanning conditions.
추가적으로 학습 장치(2200)는 뇌 이미지와 관련된 세그멘테이션을 위하여 뇌 구조 혹은 뇌 기능과 관련된 뇌 아틀라스(atlas)와 관련된 정보를 획득하도록 구현될 수 있다. Additionally, the
구체적으로, 학습 장치(2200)는 상술한 뇌의 구조 혹은 뇌의 기능과 관련된 뇌 아틀라스와 관련된 정보를 이미지 분석 장치(2000) 혹은 임의의 외부 장치로부터 획득할 수 있다. Specifically, the
이때, 학습 장치(2200)는 뇌 아틀라스와 관련된 정보를 고려하여 후술할 인공 신경망 모델을 학습시키거나 인공 신경망 모델을 검증하도록 구현될 수 있다.In this case, the
이미지 데이터 세트를 스크리닝하는 단계(S1200)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트를 획득하는 단계(S1100)에서 획득된 이미지 데이터 세트를 스크리닝하거나 이미지 데이터 세트에 포함된 이미지 데이터 중에서 일부 이미지 데이터만을 선별하는 동작을 수행하도록 구현될 수 있다. In the step of screening the image data set (S1200), the
일 예로, 획득된 이미지 데이터 세트 중에 일부 이미지 데이터들은 세그멘테이션을 위한 인공 신경망 모델을 학습하는 데 적절하지 않을 수 있다. 예를 들어, 일부 이미지 데이터들은 심각한 아티팩트(Artifact)나 심각한 노이즈를 포함할 수 있다. 이러한 이미지 데이터들은 인공 신경망 모델을 학습시키는 데 적절치 않을 수 있다. For example, some image data among the acquired image data sets may not be suitable for training an artificial neural network model for segmentation. For example, some image data may include serious artifacts or significant noise. Such image data may not be suitable for training artificial neural network models.
따라서, 학습 장치(2200)는 획득된 이미지 데이터 세트에 포함된 이미지 데이터를 스크리닝하거나 인공 신경망 모델을 학습시키는데 유효한 이미지 데이터를 선별하도록 구현될 수 있다.Accordingly, the
이미지 데이터 세트의 전처리 및 정렬하는 단계(S1300)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트에 포함된 이미지의 노이즈나 아티팩트를 제거하거나, 이미지의 인텐시티를 보정하는 전처리 동작을 수행하도록 구현될 수 있다. In the step (S1300) of pre-processing and aligning the image data set, the
또한, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지의 방향과 관련된 데이터에 기초하여 이미지를 정렬하거나, 이미지를 뇌 템플릿에 정합하여 공간 정규화를 하여 이미지를 정렬하는 동작을 수행하도록 구현될 수 있다. In addition, the
이와 관련하여는, 상술한 이미지 분석 장치(2000)의 전처리 동작과 도 5 내지 도 6과 관련하여 상술한 이미지의 정렬 동작이 동일하게 학습 장치에서 구현되도록 제공될 수 있다. 혹은 학습 장치(2200)와 이미지 분석 장치(2000) 간의 데이터 송수신을 통하여 이미지 분석 장치(2000)에서 이미지의 전처리 및 정렬 동작을 수행한 후 학습 장치(2200)로 전달하도록 구현될 수 있을 것이다. In this regard, the pre-processing operation of the
신경망 모델의 학습 및 검증 단계(S1400)에서, 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 학습 장치(2200)는 이미지 세그멘테이션을 위한 인공 신경망 모델을 학습시킬 수 있다. In the learning and verification of the neural network model ( S1400 ), the
구체적으로 인공 신경망 모델은 이미지 데이터를 입력받기 위한 입력 레이어, 세그멘테이션 결과인 라벨링 결과를 출력하기 위한 출력 레이어 및 적어도 하나 이상의 노드를 포함하는 히든 레이어를 포함할 수 있다. Specifically, the artificial neural network model may include an input layer for receiving image data, an output layer for outputting a labeling result that is a segmentation result, and a hidden layer including at least one node.
이때, 학습 장치(2200)는, 획득된 이미지 데이터 세트에 포함된 이미지 데이터를 입력 레이어를 통하여 입력받고, 신경망 모델에 의해 획득된 이미지 데이터에 대한 라벨링 결과를 출력 레이어를 통하여 획득하도록 구현될 수 있다. In this case, the
예를 들어, 학습 장치(2200)는 제1 이미지 데이터(ID1)를 입력으로 하고, 출력 레이어를 통하여 제1' 라벨(L1')을 출력하도록 구성된 인공 신경망을 학습하도록 구현될 수 있다. 또한, 학습 장치(2200)는 제2 이미지 데이터(ID2)를 입력 레이어로 입력하며, 출력 레이어를 통하여 출력된 제2' 라벨(L2')을 획득할 수 있다. For example, the
또한, 본 출원의 일 실시예에 따른 학습 장치(2200)는 상술한 뇌의 구조와 관련된 뇌의 아틀라스 혹은 뇌의 기능과 관련된 뇌의 아틀라스를 고려하여 인공 신경망을 학습시킬 수 있다. Also, the
일 실시예에 따른 학습 장치는, 미리 정해진 뇌 아틀라스에 기초하여 뇌 이미지를 분할하도록 신경망 모델을 학습할 수 있다. 뇌 아틀라스는 제1 뇌 영역 및 제2 뇌 영역을 포함하는 복수의 뇌 영역을 포함할 수 있다. 학습 장치는, 제1 뇌 영역에 대응되는 제1 영역 및 제2 뇌 영역에 대응되는 제2 영역이 라벨링된 이미지를 이용하고, 이미지를 입력으로 하여 제1 영역 및 제2 영역을 획득하도록 신경망 모델을 학습할 수 있다. The learning apparatus according to an embodiment may learn a neural network model to segment a brain image based on a predetermined brain atlas. The brain atlas may include a plurality of brain regions including a first brain region and a second brain region. The learning apparatus uses an image in which a first region corresponding to the first brain region and a second region corresponding to the second brain region are labeled, and a neural network model to obtain the first region and the second region by inputting the image. can learn
예를 들어, 본 출원의 일 실시예에 따른 학습 장치(2200)는 Desikan-Killiany Atlas (Desikan 2006)를 기초로 이미지 데이터 세트들에 포함된 이미지 데이터의 세그멘테이션을 위한 인공 신경망 모델을 학습시키도록 구현될 수 있다. Desikan-Killiany Atlas (Desikan 2006)는 제1 뇌 영역 및 제2 뇌 영역을 포함하는 복수의 뇌 영역을 포함하는 피질(cerebral cortex)을 복수의 뇌 영역에 대응되는 영역을 획득하도록 이용되는 아틀라스이다. For example, the
이때, 학습 장치(2400)는 Desikan-Killiany Atlas (Desikan 2006)를 고려하여, 제1 뇌 영역에 대응하는 제1 영역 및 제2 뇌 영역에 대응하는 제2 영역이 라벨링된 이미지 데이터를 이용하여, 뇌의 피질 영역을 세그멘테이션하기 위한 신경망 모델을 학습시킬 수 있다.At this time, the
다만, 상술한 뇌 아틀라스는 예시에 불과하며, 이미지 데이터의 세그멘테이션의 목적이나 관심 영역에 따라 임의의 적절한 뇌 아틀라스가 고려될 수 있다. However, the above-described brain atlas is merely an example, and any suitable brain atlas may be considered according to the purpose of segmentation of image data or a region of interest.
또한, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터가 촬영된 스캔 조건에 따라 신경망 모델을 학습시키도록 구현될 수 있다.Also, the
예를 들어, 학습 장치(2200)는 제1 스캔 조건에서 획득된 제1 이미지는 제1 이미지로부터 복수의 영역을 세그멘테이션하도록 제1 신경망 모델을 이용하도록 구현될 수 있다. 반면, 학습 장치(2200)는 제2 스캔 조건에서 획득된 제2 이미지는, 제2 이미지로부터 복수의 영역을 세그멘테이션하도록 제2 신경망 모델을 이용하도록 구현될 수 있다. 다시 말해, 학습 장치(2200)는 이미지가 촬영된 스캔 조건에 따라 신경망 모델을 상이하게 학습시킬 수 있다. For example, the
또한, 세그멘테이션 프로세스(P2000)에서 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 제1 스캔 조건 하에서 획득된 타겟 이미지는 학습된 제1 신경망 모델을 이용하여 세그멘테이션하며, 제2 스캔 조건 하에서 획득된 타겟 이미지는 학습된 제2 신경망 모델을 이용하여 세그멘테이션하도록 구현될 수 있다. In addition, in the segmentation process P2000, the
이를 통하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건별로 최적의 신경망 모델을 이용하여 타겟 이미지의 세그멘테이션을 수행할 수 있기 때문에, 복수의 영역들을 보다 안정적이고 정확하게 획득할 수 있다. Through this, since the
이하에서는 도 10 내지 도 11을 참고하여 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 예시에 대하여 서술한다. Hereinafter, an example of an artificial neural network model that can be used by the
도 10은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 일 예이다. 10 is an example of an artificial neural network model that can be used by the
도 11은 본 출원의 일 실시예에 따른 학습 장치(2200)가 이용할 수 있는 인공 신경망 모델의 다른 예이다. 11 is another example of an artificial neural network model that can be used by the
도 10을 참고하면, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net을 활용할 수 있다.Referring to FIG. 10 , a
이미지 세그멘테이션에 활용되는 U-net은 수축 경로(Contraction path) 및 확장 경로(Expansion Path)를 포함하는 아키텍처로 구성될 수 있다. U-net used for image segmentation may have an architecture including a contraction path and an expansion path.
구체적으로 U-net의 수축 경로는 2번의 컨볼루전(convolution) 및 맥스 풀링(max pooling)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 수축 경로에서는 이미지와 관련된 특성들이 추출될 수 있다. Specifically, the contraction path of the U-net may be configured such that two convolutions and max pooling are successively performed. In this case, image-related characteristics may be extracted from the contraction path of the U-net.
하지만, 수축 경로에서는 특성 맵의 크기 또한 줄어들기 때문에 U-net은 확장 경로를 추가적으로 포함하여 특성 맵의 크기를 복구하도록 구성될 수 있다. However, since the size of the characteristic map is also reduced in the constricted path, the U-net may be configured to recover the size of the characteristic map by additionally including the expansion path.
U-net의 확장 경로는 업-컨볼루전(Up-convolution) 및 2번의 컨볼루전(convolution)이 연속적으로 수행되도록 구성될 수 있다. 이때, U-net의 확장 경로에서는 이미지와 특성 맵의 크기가 추출될 수 있다. The extension path of the U-net may be configured such that up-convolution and two convolutions are successively performed. In this case, the size of the image and the characteristic map may be extracted from the extension path of U-net.
추가적으로 U-net은 동일한 레벨의 특성 맵을 콘카테네이션(concatenation) 하도록 아키텍처가 구성되어 수축 경로에서 확장 경로로 특성과 관련된 위치 정보를 제공할 수 있다. Additionally, the U-net architecture is configured to concatenate the characteristic map of the same level, so that it is possible to provide positional information related to the characteristic from the contraction path to the expansion path.
이때, 입력 이미지(Input Image)의 라벨과 출력 세그멘테이션 맵의 라벨 차이에 기초하여, 입력 이미지의 라벨과 출력 세그멘테이션 맵의 라벨 차이가 최소가 되도록 U-net의 포함된 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치가 조절될 수 있다. At this time, based on the difference between the label of the input image and the label of the output segmentation map, the parameter of at least one node of the included layer of U-net so that the difference between the label of the input image and the label of the output segmentation map is minimized Alternatively, the weight may be adjusted.
또한, 도 11을 참고하면, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 세그멘테이션을 위한 인공 신경망으로 U-net++을 활용할 수 있다. U-net++은 U-net의 성능을 향상시키기 위하여 DenseNet의 고밀도 블록 아이디어를 사용한 인공 신경망 모델로서, 스킵 경로에 컨볼루션 레이어가 존재하여 인코더 및 디코더 특성 맵 사이의 시맨틱 갭을 연결하며, 스킵 경로에 덴스 스킵 연결이 존재하여 그래디언트 흐름을 향상시키는 점에서 U-net과의 차이점이 존재한다. Also, referring to FIG. 11 , the
구체적으로, 학습 장치(2200)는 U-net++ 신경망 모델의 입력 레이어에 대하여 입력 이미지를 입력하고 출력 레이어를 통하여 출력된 라벨 정보를 획득하도록 구현될 수 있다. 이때, 학습 장치(2200)는 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이에 기초하여 Unet++의 포함된 히든 레이어의 적어도 하나의 노드의 파라미터 혹은 가중치를 조절할 수 있다. Specifically, the
구체적으로 학습 장치(2200)는 상술한 적어도 하나의 노드의 파라미터 혹은 가중치를 조절하는 동작을 반복적으로 수행하도록 구현되어, 입력 이미지에 포함된 라벨 정보와 신경망 모델로부터 출력되는 라벨 정보의 차이가 최소화되는 노드의 파라미터 혹은 가중치를 획득할 수 있다. Specifically, the
상술한 바와 같이, 본 출원의 일 실시예에 따른 학습 장치(2200)는 출력된 라벨 결과에 기초하여 인공 신경망 모델을 학습시키는 동작을 수행할 수 있다. As described above, the
구체적으로 인공 신경망 모델을 학습하는 단계(S1400)에서는, 이미지 데이터 세트를 획득하는 단계(S1100)로부터 획득된 이미지 데이터에 포함된 라벨과 관련된 데이터를 획득할 수 있다. Specifically, in the step (S1400) of learning the artificial neural network model, data related to the label included in the image data obtained from the step (S1100) of acquiring the image data set may be acquired.
이때, 학습 장치(2200)는 이미지 데이터 및 신경망 모델의 출력 레이어를 통하여 출력되는 라벨링 데이터에 기초하여 인공신경망 모델을 학습시키도록 구현될 수 있다. In this case, the
좀 더 구체적으로, 학습 장치(2200)는 이미지 데이터에 포함된 라벨링 데이터와 신경망 모델의 출력 레이어를 통하여 출력되는 라벨링 데이터의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절함으로써 신경망 모델을 학습시키도록 구현될 수 있다. More specifically, the
일 예로, 학습 장치(2200)는 제1 이미지 데이터(ID1)를 인공 신경망의 입력 레이어로 입력하여 제1A 라벨(L1A)에 대응하는 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제1 이미지 데이터(ID1)에 포함된 제1 라벨(L1)에 대응되는 라벨링 데이터 및 제1A 라벨(L1A)에 관련된 라벨링 데이터에 기초하여 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제1 라벨(L1)과 제1A 라벨(L1A)의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절시킴으로써 신경망 모델을 학습시키도록 구현될 수 있다. As an example, the
다른 예로, 학습 장치(2200)는 제i 이미지 데이터(IDi)를 인공 신경망의 입력 레이어로 입력하여 제iA 라벨(LiA)에 대응하는 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제i 이미지 데이터(IDi)에 포함된 제i 라벨(Li)에 대응되는 라벨링 데이터 및 제iA 라벨(LiA)에 관련된 라벨링 데이터에 기초하여 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제i 라벨(Li)과 제iA 라벨(LiA)의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절시킴으로써 신경망 모델을 학습시키도록 구현될 수 있다. 여기서 i는 임의의 수일 수 있다. As another example, the
인공 신경망 모델을 검증하는 단계(S1400)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 인공 신경망 모델을 검증할 수 있다. In step S1400 of verifying the artificial neural network model, the
일 예로, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트(DS)에 포함된 적어도 하나의 이미지 데이터에 기초하여, 학습된 신경망 모델을 통하여 출력되는 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치(2200)는 적어도 하나의 이미지 데이터와 관련된 라벨링 데이터 및 학습된 신경망 모델을 통하여 출력되는 라벨링 데이터에 기초하여 학습된 신경망 모델을 검증할 수 있다. For example, the
예를 들어, 학습 장치(2200)는 적어도 하나의 이미지 데이터와 관련된 라벨링 데이터 및 학습된 신경망 모델을 통하여 출력되는 라벨링 데이터의 유사도를 비교함으로써, 학습된 신경망 모델의 히든 레이어의 노드의 파라미터 혹은 가중치가 적절한 지 여부를 검증할 수 있다. For example, the
인공 신경망 모델을 획득하는 단계(S1500)에서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 이미지 데이터 세트에 포함된 이미지 데이터들에 대하여 인공 신경망 모델을 학습시키고 인공 신경망 모델을 검증하는 동작을 반복 수행함으로써, 이미지 데이터에 포함된 라벨과 관련된 데이터와 인공 신경망의 출력되는 라벨과 관련된 데이터 간의 차이가 최소화되는 가중치나 파라미터를 가지는 적어도 하나의 노드를 포함하는 신경망 모델을 획득할 수 있다. In the step of acquiring the artificial neural network model (S1500), the
획득된 노드의 파라미터나 가중치는 세그멘테이션 프로세스(P2000)의 이미지 세그멘테이션을 위한 인공 신경망 모델에 이용될 수 있다. The obtained node parameters or weights may be used in an artificial neural network model for image segmentation of the segmentation process P2000.
상술한 바에 따르면 인공 신경망을 이용한 세그멘테이션을 중심으로 서술하였으나, 본 출원에 개시된 이미지 분석 장치(2000)는, 인공 신경망을 이용한 이미지 세그멘테이션을 포함하여 다양한 이미지 세그멘테이션 알고리즘을 이용할 수 있다. As described above, although segmentation using an artificial neural network has been mainly described, the
일 예로, 이미지 세그멘테이션 알고리즘은 기계학습 모델로 제공될 수 있다. 기계학습 모델의 대표적인 예로는, 인공 신경망(Artificial Neural Network)이 있을 수 있다. 구체적으로 인공 신경망의 대표적인 예로는 데이터를 입력받는 입력 레이어, 결과를 출력하는 출력 레이어 및 입력 레이어와 출력 레이어 사이에서 데이터를 처리하는 히든 레이어(hidden layer)를 포함하는 딥 러닝 계열의 인공 신경망이 있다. 인공 신경망의 세부적인 예시들로는, 합성곱 인공 신경망(Convolution Neural Network), 순환신경망(Recurrent Neural Network), 심층신경망(Deep Neural Network), 생산적 적대 신경망(Generative Adversarial Network) 등이 있으며, 본 명세서에서 인공 신경망은 상술된 인공 신경망, 그 외의 다양한 형태의 인공 신경망 및 이들이 조합된 형태의 인공 신경망을 모두 포함하는 포괄적인 의미로 해석되어야 하며, 반드시 딥 러닝 계열이어야만 하는 것도 아니다.As an example, the image segmentation algorithm may be provided as a machine learning model. A representative example of the machine learning model may include an artificial neural network. Specifically, a representative example of an artificial neural network is a deep learning-based artificial neural network that includes an input layer that receives data, an output layer that outputs a result, and a hidden layer that processes data between the input and output layers. . Specific examples of artificial neural networks include a convolutional neural network, a recurrent neural network, a deep neural network, a generative adversarial network, and the like, and in the present specification, artificial The neural network should be interpreted in a comprehensive sense including all of the artificial neural networks described above, other various types of artificial neural networks, and artificial neural networks of a combination thereof, and does not necessarily have to be a deep learning series.
뿐만 아니라, 기계학습 모델이 반드시 인공 신경망 모델 형태이어야만 하는 것은 아니며, 이외에도 최근접 이웃 알고리즘(KNN), 랜덤 포레스트(RandomForest), 서포트 벡터 머신(SVM), 주성분분석법(PCA) 등이 포함될 수 있으며, 이상에서 언급된 기법들이 앙상블된 형태나 그 외에 다양한 방식으로 조합된 형태까지도 전부 포함할 수 있다. 한편, 인공 신경망을 중심으로 언급되는 실시예들에서 특별한 언급이 없는 한 인공 신경망이 다른 기계학습 모델로 대체될 수 있음을 미리 밝혀둔다.In addition, the machine learning model does not necessarily have to be in the form of an artificial neural network model, and in addition, nearest neighbor algorithm (KNN), random forest (RandomForest), support vector machine (SVM), principal component analysis (PCA), etc. may be included. The above-mentioned techniques may include an ensemble form or a form combined in various other ways. On the other hand, it is stated in advance that the artificial neural network can be replaced with another machine learning model unless otherwise specified in the embodiments mentioned mainly with the artificial neural network.
나아가, 본 명세서에서 이미지 세그멘테이션 알고리즘이 반드시 기계학습 모델로 한정되는 것은 아니다. 즉, 이미지 세그멘테이션 알고리즘은 기계학습 모델이 아닌 다양한 판단/결정 알고리즘이 포함될 수도 있다. Furthermore, in the present specification, the image segmentation algorithm is not necessarily limited to a machine learning model. That is, the image segmentation algorithm may include various judgment/decision algorithms rather than a machine learning model.
따라서, 본 명세서에서 이미지 세그멘테이션 알고리즘은 이미지 데이터를 이용하여 세그멘테이션을 수행하는 모든 형태의 알고리즘을 모두 포함하는 포괄적인 의미로 이해되어야 함을 밝혀 둔다.Therefore, in this specification, the image segmentation algorithm should be understood as a comprehensive meaning including all types of algorithms that perform segmentation using image data.
다시 도 7을 참고하면, 본 출원의 일 실시예에 따른 세그멘테이션 프로세스(P2000)는 데이터 획득 프로세스(P2100) 및 학습된 신경망 모델을 이용한 세그멘테이션 프로세스(P2200)를 포함할 수 있다. Referring back to FIG. 7 , the segmentation process P2000 according to an embodiment of the present application may include a data acquisition process P2100 and a segmentation process P2200 using a learned neural network model.
세그멘테이션 프로세스(P2000)는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현될 수 있다.The segmentation process P2000 may be implemented by the
이하에서는 도 12를 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 동작을 설명한다. 도 12는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 방법에 대한 순서도이다. Hereinafter, an image segmentation operation using a neural network model of the
도 12를 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 신경망 모델을 이용한 이미지 세그멘테이션 방법은 대상 이미지 데이터를 획득하는 단계(S2100), 학습된 신경망을 이용하여 세그멘테이션 정보를 획득하는 단계(S2200) 및 세그멘테이션 정보를 출력하는 단계(S2300)를 포함할 수 있다. Referring to FIG. 12 , the image segmentation method using the neural network model of the
구체적으로 대상 이미지 데이터를 획득하는 단계(S2000)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 대상 이미지를 획득할 수 있다. 또한 이미지 분석 장치(2000)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치로부터 대상 이미지와 관련된 대상 객체 정보 혹은 대상 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다. Specifically, in the step of acquiring the target image data ( S2000 ), the
이때, 대상 이미지와 관련된 대상 객체 정보 혹은 대상 이미지가 촬영된 스캔 조건과 관련된 정보들은, 후술할 보정 파라미터를 획득하는 것에 고려될 수 있다. 이와 관련하여는, 도 58 내지 도 67과 관련하여 자세히 서술한다. In this case, target object information related to the target image or information related to a scan condition in which the target image is captured may be considered in acquiring a correction parameter to be described later. In this regard, it will be described in detail with reference to FIGS. 58 to 67 .
도 13을 참고한다. 도 13은 본 출원의 일 실시예에 따른 대상 이미지의 예시적인 구조도이다.See FIG. 13 . 13 is an exemplary structural diagram of a target image according to an embodiment of the present application.
일 예로, 본 출원의 일 실시예에 따라 이미지 분석 장치(2000)가 획득하는 대상 이미지 데이터는 대상 이미지(TI)에 대한 정보를 포함할 수 있다. 예를 들어, 대상 이미지(TI)에 대한 정보는 픽셀의 좌표, 강도, 색상 등과 관련된 정보를 포괄할 수 있다. For example, target image data acquired by the
다른 예로, 대상 이미지 데이터는 대상 객체 정보(TO)를 포함할 수 있다. 예를 들어, 대상 객체 정보(TO)에 대한 정보는 대상 이미지(TI)와 관련된 대상체(예, 뇌질환 검사 환자)의 인적 사항에 대한 정보일 수 있다. 예를 들어, 대상 객체 정보(TO)에 대한 정보는 대상체(예, 뇌질환 검사 환자)의 이름, 나이, 성별 등과 관련된 정보들일 수 있다. 이때, 이미지 분석 장치(2000)는 임의의 외부 장치로부터 대상 객체 정보(TO)에 대한 정보를 획득할 수 있다. 혹은 이미지 분석 장치(2000)는 대상 이미지 데이터에 대하여 구조화된 메타 데이터를 인식함으로써 대상 객체 정보(TO)에 대한 정보를 획득할 수 있다.As another example, the target image data may include target object information TO. For example, the information on the target object information TO may be information on personal information of an object (eg, a brain disease test patient) related to the target image TI. For example, the information on the target object information TO may be information related to a name, age, gender, etc. of an object (eg, a brain disease test patient). In this case, the
다른 예로, 대상 이미지 데이터는 대상 스캔 조건(TSC)에 대한 정보를 포함할 수 있다. 예를 들어, 대상 스캔 조건(TSC)에 대한 정보는 대상 이미지(TI)가 촬영된 스캔 조건과 관련된 정보일 수 있다. 예를 들어, 대상 스캔 조건(TSC)에 대한 정보는 대상 이미지(TI)가 촬영된 자기장 강도, 대상 이미지(TI)가 촬영된 이미지 장치의 세팅 파라미터 혹은 대상 이미지(TI)가 촬영된 이미지 장치의 제조사와 관련된 정보들일 수 있다. 이때, 이미지 분석 장치(2000)는 임의의 외부 장치로부터 대상 스캔 조건(TSC)에 대한 정보를 획득할 수 있다. 혹은 이미지 분석 장치(2000)는 대상 이미지 데이터에 대하여 구조화된 메타 데이터를 획득함으로써 대상 스캔 조건(TSC)에 대한 정보를 획득할 수 있다. As another example, the target image data may include information about the target scan condition (TSC). For example, the information on the target scan condition TSC may be information related to the scan condition in which the target image TI is captured. For example, information on the target scan condition TSC may include a magnetic field strength in which the target image TI is photographed, a setting parameter of an imaging device in which the target image TI is photographed, or an image device in which the target image TI is photographed. It may be information related to the manufacturer. In this case, the
다시 도 7을 참고하면, 이미지 분석 장치(2000)는, 데이터 획득 프로세스(P2100)에서 획득된 대상 이미지 데이터를 학습된 신경망 모델의 입력 레이어로 입력하도록 구현될 수 있다. Referring back to FIG. 7 , the
이때, 이미지 분석 장치(2000)는, 상술한 학습 장치(2200)에서 구현되는 학습 프로세스(P1000)에 따라 획득된 인공 신경망 모델의 노드의 가중치 및/또는 노드의 파라미터를 대상 이미지 데이터를 세그멘테이션 하기 위한 인공신경망 모델에 활용하도록 구현될 수 있다. At this time, the
다시, 도 12를 참고하면, 학습된 신경망 모델을 이용하여 세그멘테이션 정보를 획득하는 단계(S2200)에서, 학습 장치(2200)로부터 획득된 노드의 가중치 및/또는 노드의 파라미터에 기초한 학습된 신경망 모델은, 대상 이미지 데이터를 입력 레이어를 통하여 입력 받아 대상 이미지(TI)를 세그멘테이션한 결과로서 대상 이미지(TI)를 라벨링한 결과를 출력 레이어를 통하여 출력하도록 제공될 수 있다. 이때, 이미지 분석 장치(2000)는 학습된 신경망 모델의 출력 레이어를 통하여 대상 이미지의 라벨링과 관련된 세그멘테이션 정보를 획득할 수 있다. Again, referring to FIG. 12 , in the step of obtaining segmentation information using the learned neural network model ( S2200 ), the learned neural network model based on the node weight and/or the node parameter obtained from the
이때, 인공 신경망 모델의 출력 레이어를 통하여 출력되는 결과는 대상 이미지 데이터의 대상 이미지로부터 획득된 복수의 대상 영역을 포함할 수 있다. In this case, the result output through the output layer of the artificial neural network model may include a plurality of target regions obtained from the target image of the target image data.
신경망 모델의 출력 레이어를 통하여 출력되는 결과는 대상 이미지로부터 획득된 복수의 대상 영역에 대응되는 라벨링 형태일 수 있다. 예를 들어, 신경망 모델의 출력 레이어를 통하여 출력되는 결과는 대상 이미지로부터 획득된 제1 영역을 정의하는 제1 라벨, 제2 영역을 정의하는 제2 라벨을 포함하는 라벨링 데이터의 형태일 수 있다. A result output through the output layer of the neural network model may be in a labeling form corresponding to a plurality of target regions obtained from the target image. For example, a result output through the output layer of the neural network model may be in the form of labeling data including a first label defining a first region and a second label defining a second region obtained from the target image.
이때, 신경망 모델의 출력 레이어를 통하여 출력되는 결과는 제1 라벨에 기초하여 대상 이미지의 제1 영역에 제1 색상을 오버레이하고 대상 이미지의 제2 영역에 제2 색상을 오버레이한 형태일 수 있다. 이를 통하여 제1 영역과 제2 영역이 보다 수월하게 구별될 수 있다. 다만, 상술한 내용은 예시에 불과하며 제1 영역과 제2 영역을 구별하기 위한 임의의 형태로서 출력 결과를 구성할 수 있다. In this case, the result output through the output layer of the neural network model may be in a form in which a first color is overlaid on a first area of the target image and a second color is overlaid on a second area of the target image based on the first label. Through this, the first area and the second area may be more easily distinguished. However, the above description is only an example, and the output result may be configured in an arbitrary form for distinguishing the first area and the second area.
또한, 신경망 모델의 출력 레이어를 통하여 출력되는 세그멘테이션 정보는 미리 정해진 뇌 아틀라스에 기초하여 대상 이미지를 복수의 영역으로 구획된 형태일 수 있다. 예를 들어, 상술한 바와 같이 학습 장치는 미리 정해진 뇌 아틀라스에 기초하여 학습 이미지를 제1 뇌 영역에 대응되는 제1 영역 및 제2 뇌 영역에 대응하는 제2 영역으로 분할하도록 신경망 모델을 학습할 수 있다. 이때, 미리 정해진 뇌 아틀라스에 기초하여 학습된 신경망 모델을 이용하기 때문에, 신경망 모델의 출력 레이어를 통하여 출력되는 세그멘테이션 정보는 대상 이미지의 제1 뇌 영역에 대응되는 제1 영역 및 제2 뇌 영역에 제2 영역을 포함하는 복수의 영역으로 구획된 형태로 출력될 수 있다. Also, the segmentation information output through the output layer of the neural network model may be in the form of dividing the target image into a plurality of regions based on a predetermined brain atlas. For example, as described above, the learning apparatus trains the neural network model to divide the learning image into a first region corresponding to the first brain region and a second region corresponding to the second brain region based on a predetermined brain atlas. can At this time, since a neural network model learned based on a predetermined brain atlas is used, the segmentation information output through the output layer of the neural network model is applied to the first and second brain regions corresponding to the first brain region of the target image. The output may be divided into a plurality of regions including two regions.
이미지 분석 장치(2000)는 출력 레이어를 통하여 출력되는 세그멘테이션 정보에 기초하여, 특정 영역에 대응되는 형태학적 수치를 계산하는 동작을 수행할 수 있다. The
일 예로, 이미지 분석 장치(2000)는 출력 레이어를 통하여 출력된 제1 영역과 관련된 세그멘테이션 정보에 기초하여 제1 뇌 영역과 관련된 형태학적 특성(morphological character)을 나타내는 형태학적 수치를 계산하도록 구현될 수 있다. 예를 들면, 형태학적 특성(morphological character)은 부피, 두께, 길이 혹은 형태 등과 관련될 수 있다. As an example, the
세그멘테이션 정보를 출력하는 단계(S2300)에서, 이미지 분석 장치(2000)는 출력 레이어를 통하여 출력되는 세그멘테이션 정보에 기초하여, 복수의 뇌 영역에 대하여 시각적인 그래픽을 오버레이하여 출력 장치(2600)의 출력 모듈(2650) 혹은 이미지 분석 장치(2000)의 출력 모듈(2050)을 통하여 사용자에게 디스플레이하도록 구현될 수 있다.In the step of outputting the segmentation information ( S2300 ), the
도 14를 참고한다. 도 14는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 세그멘테이션 프로세스에 의해 획득된 세그멘테이션 정보에 기초하여 획득된 이미지의 예시들이다. See FIG. 14 . 14 is an example of images obtained based on segmentation information obtained by a segmentation process of the
구체적으로, 도 14의 상측에 도시된 도면은 T1-MRI로부터 획득된 이미지에 대한 세그멘테이션 결과에 기초하여 출력되는 이미지의 예시이다. 도 14의 하측에 도시된 도면은 T2-Flair MRI로부터 획득된 이미지에 대한 세그멘테이션 결과에 기초하여 출력되는 이미지의 예시이다. Specifically, the diagram shown in the upper part of FIG. 14 is an example of an image output based on a segmentation result for an image obtained from T1-MRI. 14 is an example of an image output based on a segmentation result for an image obtained from T2-Flair MRI.
예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 T1-MRI로부터 획득된 이미지에 대한 세그멘이션 프로세스에 의하여 전두엽, 측두엽, 두정엽, 후두엽, 외측 뇌실, 편도체, 해마 영역 등에 대응하는 세그멘테이션 정보를 획득할 수 있다.For example, in the
예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 T2-Flair MRI로부터 획득된 이미지에 대한 세그멘이션 프로세스에 의하여 백질, 회백질, 뇌실, WMH(white matter hyperintensity) 영역 등에 대응하는 세그멘테이션 정보를 획득할 수 있다.For example, the
상술한 이미지 분석 장치(2000)의 이미지 세그멘테이션 동작에 의하면, 사용자는 세그멘테이션 결과를 시각적으로 확인할 수 있어 용이하게 세그멘테이션 결과를 확인할 수 있다. 또한, 사용자의 뇌 질환 진단의 보조 지표에 대한 이해도를 향상시킬 수 있다는 유리한 효과가 제공될 수 있다. According to the image segmentation operation of the
한편, 도 7에서 사용되는 인공 신경망 모델은 적어도 하나의 인공 신경망 모델로 구현될 수 있다. Meanwhile, the artificial neural network model used in FIG. 7 may be implemented as at least one artificial neural network model.
이하에서는, 도 15 내지 도 17을 참고하여, 적어도 하나의 인공 신경망 모델을 이용하는 본 출원의 일 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 서술한다. 구체적으로 도 7의 인공 신경망 모델을 학습시키는 프로세스(P1200)와 관련하여 복수의 인공 신경망 모델을 이용하는 경우의 특징적인 내용들을 중심으로 서술한다. 도 7 내지 도 14와 관련되어 서술한 내용은, 도 15 내지 도 17과 관련하여 후술할 실시예에도 유추적용될 수 있다. Hereinafter, a flowchart of a process for image segmentation using at least one artificial neural network model according to an embodiment of the present application will be described with reference to FIGS. 15 to 17 . Specifically, in relation to the process ( P1200 ) of training the artificial neural network model of FIG. 7 , characteristic contents in the case of using a plurality of artificial neural network models will be mainly described. The contents described in relation to FIGS. 7 to 14 may be analogically applied to the embodiments to be described later in relation to FIGS. 15 to 17 .
도 15는 본 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다. 15 is a diagram illustrating a flowchart of a process for image segmentation according to the present embodiment.
일 예로, 도 15를 참고하면, 도 7의 학습 프로세스(P1000)의 신경망 모델 학습 프로세스(P1200)는 제1 신경망 모델을 학습시키는 프로세스(P1210) 및 제2 신경망 모델을 학습시키는 프로세스(P1220)로 구성될 수 있다.As an example, referring to FIG. 15 , the neural network model learning process P1200 of the learning process P1000 of FIG. 7 is a process P1210 for learning the first neural network model and a process P1220 for learning the second neural network model. can be configured.
일 예로, 제1 신경망 모델은 제1 뇌 영역에 대응하는 제1 영역 및 제2 뇌 영역에 대응하는 제2 영역을 획득하도록 학습될 수 있다. 이때, 제2 신경망 모델은 제1 신경망 모델로부터 획득될 수 있는 제1 영역에 포함된 제3 영역 및 제4 영역을 획득하도록 학습될 수 있다. 다시 말해, 제1 신경망 모델은 뇌의 거시적인 구조에 대응되는 영역들(예, 두개골 영역, 뇌 척수액(CSF) 영역, 피질 영역, 수질 영역)을 획득하도록 학습될 수 있으며, 제2 신경망 모델은 뇌의 세부적인 구조에 대응되는 영역들(예, 피질 내에 위치하는 뇌 요소들에 대응되는 영역, 수질 내에 위치하는 뇌 요소들에 대응되는 영역)을 획득하도록 학습될 수 있다.As an example, the first neural network model may be trained to acquire a first region corresponding to the first brain region and a second region corresponding to the second brain region. In this case, the second neural network model may be trained to acquire the third region and the fourth region included in the first region that may be obtained from the first neural network model. In other words, the first neural network model may be trained to acquire regions (eg, cranial region, cerebrospinal fluid (CSF) region, cortical region, medulla region) corresponding to the macroscopic structure of the brain, and the second neural network model may be It may be learned to acquire regions corresponding to the detailed structure of the brain (eg, regions corresponding to brain elements located in the cortex, regions corresponding to brain elements located in the medulla).
다른 예로, 제1 신경망 모델은 제1 뇌 아틀라스에 대응되는 뇌 영역들에 대응되는 영역들을 획득하도록 학습될 수 있다. 반면 제2 신경망 모델은 제2 뇌 아틀라스에 대응되는 뇌 영역들에 대응되는 영역들을 획득하도록 학습될 수 있다. As another example, the first neural network model may be trained to obtain regions corresponding to brain regions corresponding to the first brain atlas. On the other hand, the second neural network model may be trained to acquire regions corresponding to brain regions corresponding to the second brain atlas.
또 다른 예로, 제1 신경망 모델은 뇌의 거시적인 구조에 대응되는 영역들(예, 두개골 영역, 뇌 척수액(CSF) 영역, 피질 영역, 수질 영역)을 획득하도록 학습될 수 있다. 반면, 제2 신경망 모델은 뇌 아틀라스에 대응되는 뇌 영역들에 대응되는 영역들을 획득하도록 학습될 수 있다. 예를 들어, 제2 신경망 모델은 Desikan-Killiany Atlas (Desikan 2006)에 기초하여 복수의 뇌 영역에 대응되는 영역들을 획득하도록 학습될 수 있으며, Desikan-Killiany Atlas (Desikan 2006)에 기초하여 학습된 제2 신경망 모델은 전두엽, 측두엽, 두정엽, 후두엽, 외측 뇌실, 편도체 및 해마를 포함하는 영역들을 획득하도록 학습될 수 있다.As another example, the first neural network model may be trained to acquire regions (eg, cranial region, cerebrospinal fluid (CSF) region, cortical region, and medulla region) corresponding to the macroscopic structure of the brain. On the other hand, the second neural network model may be trained to acquire regions corresponding to brain regions corresponding to the brain atlas. For example, the second neural network model may be trained to acquire regions corresponding to a plurality of brain regions based on Desikan-Killiany Atlas (Desikan 2006), and the second neural network model learned based on Desikan-Killiany Atlas (Desikan 2006) The two neural network model can be trained to acquire regions including the frontal lobe, temporal lobe, parietal lobe, occipital lobe, lateral ventricle, amygdala and hippocampus.
제1 신경망 모델을 학습시키는 프로세스(P1210)와 제2 신경망 모델을 학습시키는 프로세스(P1220)는 독립적으로 수행될 수 있다.The process P1210 for training the first neural network model and the process P1220 for training the second neural network model may be independently performed.
구체적으로 제1 신경망 모델을 학습시키는 프로세스(P1210)와 제2 신경망 모델을 학습시키는 프로세스(P1220)에 활용되는 데이터 세트는 독립적일 수 있다.Specifically, the data sets used in the process P1210 for training the first neural network model and the process P1220 for training the second neural network model may be independent.
도 16을 참고한다. 도 16은 본 출원의 일 실시예에 따른 이미지 데이터 세트들의 예시적인 구조도이다. 구체적으로 도 16의 왼쪽에 도시된 이미지 데이터 세트는 제1 신경망 모델을 학습시키기 위한 이미지 데이터 세트일 수 있다. 반면 도 16의 오른쪽에 도시된 이미지 데이터 세트는 제2 신경망 모델을 학습시키기 위한 이미지 데이터 세트일 수 있다.See FIG. 16 . 16 is an exemplary structural diagram of image data sets according to an embodiment of the present application. Specifically, the image data set shown on the left side of FIG. 16 may be an image data set for training the first neural network model. On the other hand, the image data set shown on the right side of FIG. 16 may be an image data set for training the second neural network model.
예를 들어, 제1 신경망 모델을 학습시키기 위한 이미지 데이터 세트(DS)는 제1 이미지(I1) 및 제1 영역들과 관련된 제1a 라벨(L1a)과 관련된 정보를 포함하는 제1 이미지 데이터를 포함할 수 있다. 반면 제2 신경망 모델을 학습시키기 위한 이미지 데이터 세트(DS)는 제1 이미지(I1) 및 제2 영역들과 관련된 제1b 라벨(L1b)과 관련된 정보를 포함하는 제1 이미지 데이터를 포함할 수 있다.For example, the image data set DS for training the first neural network model includes first image data including information related to a first image I1 and a first label L1a related to first regions. can do. On the other hand, the image data set DS for training the second neural network model may include the first image data including information related to the first image I1 and the 1b label L1b related to the second regions. .
이때, 학습 장치는 제1 신경망 모델을 이용하여, 제1 이미지 데이터(ID1)를 인공 신경망의 입력 레이어로 입력하여 제1 영역들과 관련된 제1a 라벨(L1a')에 대응하는 출력 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제1 이미지 데이터(ID1)에 포함된 제1 영역들과 관련된 라벨(L1a)에 대응되는 라벨링 데이터 및 제1 영역과 관련된 제1a' 라벨(L1a')에 관련된 출력 라벨링 데이터에 기초하여 인공 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제1a 라벨(L1a)과 제1a' 라벨(L1a')의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절하도록 구현될 수 있다. 또한 상술한 제1 신경망 모델을 학습시키는 프로세스를 반복적으로 수행함으로써, 제1 영역과 관련된 제1 신경망 모델과 관련된 파라미터를 획득할 수 있다.In this case, the learning apparatus uses the first neural network model to input the first image data ID1 as an input layer of the artificial neural network to obtain output labeling data corresponding to the first label L1a' related to the first regions. can do. In this case, the learning apparatus performs labeling data corresponding to the label L1a related to the first regions included in the first image data ID1 and the output labeling data related to the label 1a' label L1a' related to the first region. Based on this, an artificial neural network model can be trained. For example, the
반면, 학습 장치는 제2 신경망 모델을 이용하여, 제1 이미지 데이터를 인공 신경망의 입력 레이어로 입력하여 제2 영역들과 관련된 제1b' 라벨(L1b')에 대응하는 출력 라벨링 데이터를 획득할 수 있다. 이때, 학습 장치는 제1 이미지 데이터(ID1)에 포함된 제2 영역들과 관련된 제1b 라벨(L1b)에 대응되는 라벨링 데이터 및 제2 영역과 관련된 제1b 라벨(L1b')에 관련된 출력 라벨링 데이터에 기초하여 인공 신경망 모델을 학습시킬 수 있다. 예를 들어, 학습 장치(2200)는 제1b 라벨(L1b)과 제1b' 라벨(L1b')의 차이에 기초하여 신경망 모델의 히든 레이어에 포함된 적어도 하나의 노드의 가중치나 파라미터를 조절하도록 구현될 수 있다. 또한, 상술한 제2 신경망 모델을 학습시키는 프로세스를 반복적으로 수행함으로써, 제2 영역과 관련된 제2 신경망 모델과 관련된 파라미터를 획득할 수 있다.On the other hand, the learning apparatus may obtain output labeling data corresponding to the first label L1b' related to the second regions by inputting the first image data to the input layer of the artificial neural network using the second neural network model. have. In this case, the learning apparatus generates labeling data corresponding to the 1b label L1b related to the second regions included in the first image data ID1 and the output labeling data related to the 1b label L1b′ related to the second region. An artificial neural network model can be trained based on For example, the
또한, 학습 프로세스(P1000)에서 획득된 제1 신경망 모델과 관련된 파라미터는 세그멘테이션 프로세스(P2000)의 제1 영역에 대응되는 이미지 세그멘테이션을 위한 제1 신경망 모델에 이용될 수 있으며(P2210), 학습 프로세스(P1000)에서 획득된 제2 신경망 모델과 관련된 파라미터는 세그멘테이션 프로세스(P2000)의 제2 영역에 대응되는 이미지 세그멘테이션을 위한 제2 신경망 모델에 이용(P2220)되도록 구현될 수 있을 것이다. In addition, the parameters related to the first neural network model obtained in the learning process P1000 may be used in the first neural network model for image segmentation corresponding to the first region of the segmentation process P2000 (P2210), and the learning process (P2210) The parameters related to the second neural network model obtained in P1000) may be implemented to be used (P2220) by the second neural network model for image segmentation corresponding to the second region of the segmentation process (P2000).
다만, 도 16에 따르면, 제1 신경망 모델과 관련된 이미지 데이터에 포함된 제1a 라벨은 제1 영역과 관련된 라벨이며 제2 신경망 모델과 관련된 이미지 데이터에 포함된 제1b 라벨은 제2 영역과 관련된 라벨인 것으로 도시되었으나, 이는 예시에 불과하며 이에 제한되지 않는다. 예를 들어, 제1 및 2 신경망 모델의 이미지 데이터는 제1 영역 및 제2 영역과 관련된 라벨 정보를 포함할 수 있으며, 제1 신경망 모델을 학습시키는 경우에는 제1 영역과 관련된 라벨 정보만을 이용하고 제2 신경망 모델을 학습시키는 경우에는 제2 영역과 관련된 라벨 정보만을 이용하도록 구현될 수 있을 것이다. However, according to FIG. 16 , the label 1a included in the image data related to the first neural network model is a label related to the first region, and the label 1b included in the image data related to the second neural network model is a label related to the second region. Although shown as being, this is merely an example and is not limited thereto. For example, the image data of the first and second neural network models may include label information related to the first region and the second region, and when training the first neural network model, only label information related to the first region is used and When training the second neural network model, it may be implemented to use only label information related to the second region.
또한, 상술한 바에 따르면, 제1 신경망 모델과 제2 신경망 모델이 독립적인 것으로 서술되었으나, 이에 제한되지 않으며, 제1 신경망 모델과 제2 신경망 모델은 적어도 일부 레이어를 공유할 수 있다. 다시 말해, 제1 신경망 모델과 제2 신경망 모델은 공통되는 레이어를 적어도 하나 포함할 수 있다.Also, as described above, although it has been described that the first neural network model and the second neural network model are independent, the present invention is not limited thereto, and the first neural network model and the second neural network model may share at least some layers. In other words, the first neural network model and the second neural network model may include at least one common layer.
한편, 제1 신경망 모델을 학습시키는 프로세스와 제2 신경망 모델을 학습시키는 프로세스는 독립적일 수 있으나, 서로 관련되도록 학습시킬 수 있다. 여기서, 서로 관련되도록 학습시킨다 것은 둘 중 하나의 신경망 모델에서 출력되는 데이터를 다른 신경망 모델의 입력 데이터로 사용하는 것을 포함하여, 둘 중 하나의 신경망 모델에서 생성된 임의의 데이터를 다른 신경망 모델에서 이용하는 모든 형태를 포괄하는 것을 의미할 수 있다. Meanwhile, the process of learning the first neural network model and the process of learning the second neural network model may be independent, but may be taught to be related to each other. Here, learning to be related to each other includes using data output from one neural network model as input data of the other neural network model, and using arbitrary data generated from one neural network model in another neural network model. It can mean encompassing all forms.
도 17을 참고한다. 도 17은 본 출원의 실시예에 따른 이미지 세그멘테이션을 위한 프로세스의 흐름도를 도시한 도면이다. See FIG. 17 . 17 is a diagram illustrating a flowchart of a process for image segmentation according to an embodiment of the present application.
일 실시예로, 본 출원의 일 실시예에 따른 학습 프로세스(P1000)의 신경망 모델을 학습시키는 프로세스(P1200)는 제1 신경망 모델을 학습시키는 프로세스(P1211) 및 제2 신경망 모델을 학습시키는 프로세스(P1221)를 포함하되, 제1 신경망 모델로부터 출력되는 결과와 관련된 데이터가 제2 신경망 모델에 입력 데이터로 입력되도록 구현될 수 있다. In one embodiment, the process (P1200) of training the neural network model of the learning process (P1000) according to an embodiment of the present application includes a process (P1211) of training a first neural network model and a process (P1211) of training a second neural network model ( P1221), but may be implemented such that data related to a result output from the first neural network model is input to the second neural network model as input data.
일 예로, 학습 장치(2200)는 제2 신경망 모델이 제1 영역과 관련된 라벨링 데이터를 입력받도록 구성할 수 있다. 이때, 제1 영역과 관련된 라벨링 데이터는 이미지 데이터에 대하여 제1 뇌 영역에 대응되는 제1 영역을 수동으로 라벨링됨으로써 획득되거나, 임의의 자동 라벨링 소프트웨어를 이용하여 획득될 수 있다. As an example, the
예를 들어, 제1 영역과 관련된 라벨링 데이터는 제1 신경망 모델에 입력되는 이미지 데이터에 대하여 임상의에 의하여 수동으로 라벨링된 데이터일 수 있다. For example, the labeling data related to the first region may be data manually labeled by a clinician with respect to image data input to the first neural network model.
다른 예를 들어, 제1 신경망 모델은 제1 영역과 관련된 라벨링 데이터를 출력하도록 학습될 수 있으며, 이때, 제2 신경망 모델에 입력되는 제1 영역과 관련된 라벨링 데이터는 제1 신경망 모델로부터 출력되는 라벨링 데이터일 수 있다. As another example, the first neural network model may be trained to output labeling data related to the first region, and in this case, the labeling data related to the first region input to the second neural network model is the labeling output from the first neural network model. It can be data.
이때, 제2 신경망 모델은 제1 영역과 관련된 라벨링 데이터 및 이미지 데이터에 기초하여 제2 영역과 관련된 라벨링 데이터를 출력하도록 학습될 수 있다. In this case, the second neural network model may be trained to output labeling data related to the second region based on the labeling data and image data related to the first region.
따라서, 본 출원의 일 실시예에 따른 학습 장치(2200)는 제1 신경망 모델을 통하여 제1 영역과 관련된 라벨링 데이터를 획득할 수 있으며 제2 신경망 모델을 통하여 제2 영역과 관련된 라벨링 데이터를 획득하도록 구현될 수 있다. 따라서, 학습 장치(2200)는 제1 영역 및 제2 영역과 관련된 라벨링 데이터를 획득하도록 제1 신경망 모델 및 제2 신경망 모델을 학습시킬 수 있다. Therefore, the
또한, 학습 장치(2200)는 제1 영역 및 제2 영역과 관련된 라벨과 관련된 라벨링 데이터 및 이미지 데이터 세트의 제1 영역 및 제2 영역과 관련된 라벨링 데이터의 차이에 기초하여, 제1 신경망 모델의 적어도 하나의 노드의 가중치나 파라미터를 조절하거나 제2 신경망 모델의 적어도 하나의 노드의 가중치나 파라미터를 조절하도록 제공될 수 있다. In addition, the
또한, 학습 프로세서(P1000)에서 획득된 제1 신경망 모델 및 제2 신경망 모델과 관련된 파라미터는 세그멘테이션 프로세스(P2000)의 제1 영역 및 제2 영역에 대응되는 이미지 세그멘테이션을 위한 제1 신경망 모델 및 제2 신경망 모델에 이용될 수 있다. In addition, the parameters related to the first neural network model and the second neural network model obtained in the learning processor P1000 are the first neural network model and the second neural network model for image segmentation corresponding to the first region and the second region of the segmentation process P2000. It can be used for neural network models.
이때, 제1 영역 또는 제2 영역은 뇌의 해부학적 구조와 관련된 영역일 수 있으며, 상술한 뇌 아틀라스에 기초하여 구획된 영역 중 하나일 수 있다. 또한 제1 영역 또는 제2 영역은 뇌 질환과 관련된 유의미한 연관성을 나타내는 영역일 수 있다.In this case, the first region or the second region may be a region related to an anatomical structure of the brain, and may be one of regions partitioned based on the brain atlas described above. Also, the first region or the second region may be a region showing a significant association related to a brain disease.
다만, 상술한 신경망 모델의 학습 프로세스는 예시에 불과하며, 임의의 적절한 형태, 유형, 파라미터를 가진 적어도 하나 이상의 신경망 모델의 다양한 조합이나 연결관계를 이용하여 이미지 세그멘테이션 동작을 학습시키고 신경망 모델을 검증하여 신경망 모델의 파라미터를 획득할 수 있을 것이다. However, the above-described learning process of the neural network model is only an example, and the image segmentation operation is learned using various combinations or connections of at least one or more neural network models having any appropriate form, type, and parameter, and the neural network model is verified. It may be possible to obtain the parameters of the neural network model.
한편, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 세그멘테이션 프로세스(P2000)에서, 학습된 인공 신경망 모델을 갱신하거나 업데이트하도록 구현될 수 있다. Meanwhile, the
일 예로, 이미지 분석 장치(2000)는, 학습된 신경망 모델을 이용한 세그멘테이션 프로세스(P2200)에 의해 대상 이미지를 세그멘테이션하여 획득된 세그멘테이션 정보를 수동으로 또는 임의의 소프트웨어를 이용하여 수정 가능하도록 구현될 수 있다. 이때, 이미지 분석 장치(2000)는 수정된 세그멘테이션 정보에 기초하여, 학습된 신경망 모델의 적어도 하나 이상의 노드의 가중치나 적어도 하나 이상의 노드의 파라미터를 수정함으로써, 인공 신경망 모델을 갱신하거나 업데이트하도록 구현될 수 있다. As an example, the
일 실시예에 따른 이미지 분석 장치는 이미지의 품질을 판단하는 기능을 수행할 수 있다. 이미지 분석 장치는 이미지의 품질을 판단하기 위한 품질 기준을 가지고, 입력되는 이미지가 품질 기준을 만족하는지 여부를 판단할 수 있다.The image analysis apparatus according to an embodiment may perform a function of determining the quality of an image. The image analysis apparatus may have a quality criterion for determining the quality of the image, and may determine whether an input image satisfies the quality criterion.
보다 구체적으로, 이미지 품질 판단은 이미지 획득 장치에 의해 획득된 의료 이미지가 일정 수준 이상의 품질을 갖추고 있는지 판단하는 것을 의미할 수 있다. 다시 말해, 이미지 품질 판단은 이미지 획득 장치에 의해 획득된 의료 이미지로부터 일정 수준 이상의 신뢰도를 가지는 의료 정보의 획득이 가능한지 판단하는 것을 의미할 수 있다.More specifically, the image quality determination may mean determining whether the medical image acquired by the image acquisition device has a quality above a certain level. In other words, the image quality determination may refer to determining whether medical information having a certain level of reliability or higher can be obtained from the medical image acquired by the image acquisition device.
이미지 품질 판단은 이미지 분석 동작을 구성하는 세부 동작과 함께 수행될 수 있다. 예컨대, 이미지 품질 판단 동작은 본 명세서에서 설명하는 이미지 획득 동작, 이미지 전처리 동작, 이미지 세그멘테이션 동작 및/또는 의료 정보 출력 동작과 함께 수행될 수 있다. Image quality determination may be performed together with detailed operations constituting an image analysis operation. For example, the image quality determination operation may be performed together with the image acquisition operation, image preprocessing operation, image segmentation operation, and/or medical information output operation described herein.
이미지 품질 판단 동작은 적어도 하나의 세부 동작의 수행 전에 또는 수행 후에 수행될 수 있다. 이미지 품질 판단 동작은 세부 동작의 수행 결과 얻어진 정보에 기초하여 수행될 수 있다. 이미지 품질 판단 동작은 세부 동작을 수행하기 위한 기준을 만족하는지 판단하기 위하여 수행될 수 있다.The image quality determination operation may be performed before or after the at least one detailed operation is performed. The image quality determination operation may be performed based on information obtained as a result of performing the detailed operation. The image quality determination operation may be performed to determine whether a criterion for performing a detailed operation is satisfied.
이미지 품질 판단은 이미지 데이터에 기초하여 수행될 수 있다. 이미지 품질 판단은 이미지 로데이터를 기초로 수행될 수 있다. 이미지 품질 판단은 전처리가 수행된 의료 이미지를 기초로 수행될 수 있다. 다른 예로, 이미지 품질 판단은 의료 이미지를 세그멘테이션(segmentation)한 결과를 기초로 수행될 수 있다. 또다른 예로, 이미지 품질 판단은 의료 이미지를 분석한 결과를 기초로 수행될 수 있다. The image quality determination may be performed based on image data. The image quality determination may be performed based on the raw image data. The image quality determination may be performed based on a medical image on which pre-processing has been performed. As another example, the image quality determination may be performed based on a result of segmentation of the medical image. As another example, the image quality determination may be performed based on a result of analyzing the medical image.
이미지 품질 판단은 이미지 데이터와 관련된 비-이미지 데이터에 기초하여 수행될 수 있다. 이미지 품질 판단은 의료 이미지에 관한 메타데이터(metadata) 정보, 의료 이미지에 포함되어 있는 아티팩트 정보 또는 의료 이미지 세그멘테이션(segmentation)을 통해 확보된 관심 영역 정보 중 적어도 어느 하나를 기초로 수행될 수 있다.The image quality determination may be performed based on non-image data related to the image data. The image quality determination may be performed based on at least one of metadata information about the medical image, artifact information included in the medical image, or ROI information secured through medical image segmentation.
일 실시예에 따르면, 이미지 품질 판단은 대응되는 세부 동작 별로 달리 수행될 수 있다. According to an embodiment, the image quality determination may be performed differently for each corresponding detailed operation.
예컨대, 제1 품질 판단은 전처리 동작 전에 로데이터에 기초하여 수행될 수 있다. 이때, 제1 품질 기준을 만족하는 이미지에 대하여 전처리 동작이 수행될 수 있다. 또 예컨대, 제2 품질 판단은, 세그멘테이션 동작 전에 로데이터 또는 전처리된 이미지에 기초하여 수행될 수 있다. 이때, 제2 품질 기준을 만족하는 이미지에 대하여 세그멘테이션 동작이 수행될 수 있다. 또 예컨대, 제3 품질 판단은, 이미지 분석 전에, 로데이터, 전처리된 이미지 또는 이미지 세그멘테이션 결과에 기초하여 수행될 수 있다. 제3 품질 기준을 만족하는 이미지에 대하여 이미지 분석이 수행될 수 있다. 제1 내지 제3 품질 기준은 서로 다를 수 있다.For example, the first quality determination may be performed based on the raw data before the preprocessing operation. In this case, a pre-processing operation may be performed on an image that satisfies the first quality criterion. Also, for example, the second quality determination may be performed based on raw data or a pre-processed image before the segmentation operation. In this case, a segmentation operation may be performed on an image that satisfies the second quality criterion. Also, for example, the third quality determination may be performed based on raw data, a preprocessed image, or an image segmentation result before image analysis. Image analysis may be performed on an image that satisfies the third quality criterion. The first to third quality criteria may be different from each other.
이미지 품질 판단을 통하여 획득된 정보는 출력될 수 있다. 이미지 품질 판단을 통하여 획득된 정보는 이미지 품질 판단의 근거가 되는 정보를 포함할 수 있다. 이미지 품질 판단의 근거가 되는 정보는 이미지에 흠결이 존재하는지 여부, 이미지의 형식 정보, 이미지의 획득 조건 등을 포함할 수 있다. 이미지 품질 판단을 통하여 획득된 정보는, 후속 동작의 수행 여부와 관련된 정보의 생성 또는 제공에 이용될 수 있다. Information obtained through image quality determination may be output. The information obtained through the image quality determination may include information that is a basis for the image quality determination. The information that is the basis for determining the image quality may include whether there is a defect in the image, information about the format of the image, conditions for acquiring the image, and the like. Information obtained through image quality determination may be used to generate or provide information related to whether a subsequent operation is performed.
이미지 품질 판단의 구체적인 실시예에 대하여는 후술하도록 한다.A specific embodiment of image quality determination will be described later.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지의 세그멘테이션 결과에 기초하여 대상체의 뇌 형태학적 지표를 계산하는 동작을 수행하도록 제공될 수 있다. The
구체적으로, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 두개골의 내부 영역과 타겟 요소에 대응되는 영역을 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 타겟 요소의 형태학적 지표를 계산하기 위하여 두개골의 내부 영역에 대응되는 바운더리를 수정하는 동작을 추가적으로 수행할 수 있다. Specifically, the
또한, 이미지 분석 장치(2000)는 두개골의 내부 영역의 바운더리를 수정하기 위하여 뇌 이미지를 정렬하는 동작을 추가적으로 수행할 수 있다. Also, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 대상체의 뇌 형태학적 지표를 계산하는 동작은 도 48 내지 도 57과 관련하여 자세히 후술하도록 한다. The operation of calculating the brain morphological index of the object by the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지의 세그멘테이션 결과에 기초하여 계산된 뇌의 형태학적 값 혹은 형태학적 지표를 보정하는 동작을 수행하도록 제공될 수 있다. The
구체적으로, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 타겟 요소에 대응되는 영역과 타겟 요소에 대응되는 픽셀이나 복셀 데이터를 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 타겟 요소에 대응되는 픽셀이나 복셀 데이터에 기초하여 타겟 요소의 형태학적 값을 획득할 수 있다. Specifically, the
또한, 이미지 분석 장치(2000)는 보다 정확한 형태학적 지표를 출력하도록, 대상 이미지가 획득된 스캔 조건이나 대상 이미지 내에 타겟 요소의 위치를 고려하여 타겟 요소의 형태학적 값을 보정하는 동작을 수행할 수 있다.In addition, the
이때, 이미지 분석 장치(2000)는 타겟 요소의 형태학적 값을 보정하기 위하여 보정 파라미터 획득 장치(2400)로부터 스캔 조건이나 타겟 요소의 위치를 고려한 보정 파라미터를 획득할 수 있으며, 보정 파라미터 및 타겟 요소의 형태학적 값에 기초하여 타겟 요소의 형태학적 지표를 출력하는 동작을 수행하도록 제공될 수 있다. In this case, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 뇌의 형태학적 값 혹은 형태학적 지표를 보정하는 동작은 도 58 내지 도 67과 관련하여 자세히 후술하도록 한다. The operation of correcting the morphological value or morphological index of the brain of the
일 실시예에 따른 이미지 출력 장치는 이미지 분석을 통해 획득되는 다양한 의료 정보를 기초로 진단 보조 정보를 사용자에게 제공할 수 있다. 여기서, 진단 보조 정보는 의료 이미지로부터 획득되는 다양한 의료 정보의 가공을 통해 획득되는 정보를 포함할 수 있다. 예를 들어, 진단 보조 정보는 의료 정보를 가공하여 획득된 정보 예컨대, 의료 정보에 기초한 진단 정보, 분석 정보, 처방 정보 등을 포함할 수 있다.The image output apparatus according to an exemplary embodiment may provide the user with diagnosis auxiliary information based on various medical information obtained through image analysis. Here, the diagnosis auxiliary information may include information obtained through processing of various types of medical information obtained from a medical image. For example, the diagnosis auxiliary information may include information obtained by processing medical information, for example, diagnosis information based on medical information, analysis information, prescription information, and the like.
진단 보조 정보 제공 동작은 이미지 출력 동작을 구성하는 세부 동작과 함께 수행될 수 있다. 예컨대, 진단 보조 정보 제공 동작은 본 명세서에서 설명하는 이미지 획득 동작, 이미지로부터 의료 정보를 획득하는 동작, 획득된 정보 중 진단 보조 정보를 획득하는 동작, 진단 보조 정보를 출력하는 동작 및/또는 진단 보조 정보에 기초하여 코멘트를 제공하는 동작과 함께 수행될 수 있다. 상술한 각각의 동작에 관한 자세한 설명은 후술하도록 한다.The operation of providing diagnostic auxiliary information may be performed together with a detailed operation constituting the operation of outputting an image. For example, the operation of providing diagnostic auxiliary information may include an image acquisition operation described herein, an operation for acquiring medical information from an image, an operation for acquiring diagnostic assistance information among the acquired information, an operation for outputting diagnostic assistance information, and/or a diagnosis assistance operation. It may be performed together with an operation of providing a comment based on the information. A detailed description of each of the above-described operations will be provided later.
다른 실시예에 따른 이미지 출력 장치는 이미지 분석을 통해 획득되는 다양한 의료 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공할 수 있다. 여기서, 선택적 정보 제공은 이미지 분석 장치를 통해 획득할 수 있는 다양한 의료 정보 중 사용자에게 필요한 의료 정보만을 선택적으로 제공하는 것을 포함할 수 있다.The image output apparatus according to another exemplary embodiment may selectively provide index information necessary for a user from among various medical information obtained through image analysis. Here, the selective information provision may include selectively providing only necessary medical information to the user from among various medical information obtainable through the image analysis apparatus.
선택적 정보 제공 동작은 이미지 출력 동작을 구성하는 세부 동작과 함께 수행될 수 있다. 예컨대, 선택적 정보 제공 동작은 본 명세서에서 설명하는 이미지 획득 동작, 이미지로부터 의료 정보를 획득하는 동작, 획득된 정보 중 선택적 정보를 획득하는 동작, 선택적 정보를 출력하는 동작 및/또는 선택적 정보에 기초하여 코멘트를 제공하는 동작과 함께 수행될 수 있다. 상술한 각각의 동작에 관한 자세한 설명은 후술하도록 한다.The optional information providing operation may be performed together with a detailed operation constituting the image output operation. For example, the selective information providing operation may be performed based on the image acquisition operation described herein, the operation of acquiring medical information from the image, the operation of acquiring selective information among the acquired information, the operation of outputting the optional information and/or the selective information. This may be performed in conjunction with the action of providing a comment. A detailed description of each of the above-described operations will be provided later.
이상에서는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 구성과 동작에 대하여 서술하였다. 이하에서는 본 실시예에 따른 이미지 분석 방법에 관하여 보다 구체적으로 설명한다. In the above, the configuration and operation of the
이하의 설명에서는 본 출원의 일 실시예에 따른 이미지 분석 방법이 상술한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)에 의해 수행되는 것으로 설명한다. 다만, 이는 설명의 편의를 위한 것에 불과하므로, 본 출원의 일 실시예에 따른 이미지 분석 방법이 상술한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)로 한정되는 것은 아니다. 즉, 후술되는 이미지 분석 방법이 반드시 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)에 의해서만 수행되어야 하는 것은 아니며 상술한 이미지 분석 장치(2000), 학습 장치(2200), 보정 파라미터 획득 장치(2400) 혹은 출력 장치(2600)와 유사한 기능을 갖는 다른 시스템이나 장치 등에 의해 수행되는 것도 가능하다.In the following description, it is described that the image analysis method according to an embodiment of the present application is performed by the above-described
환자의 건강 상태를 판단하기 위해 의료 이미지로부터 다양한 정보가 획득되는데, 정확한 정보를 획득하기 위하여는 일정 수준 이상의 품질을 가지고 필요 조건을 만족하는 의료 이미지를 기초로 분석이 이루어져야 한다.A variety of information is obtained from medical images to determine a patient's health status. In order to obtain accurate information, analysis must be performed based on medical images that have a quality above a certain level and satisfy necessary conditions.
보다 구체적으로, 이미지 획득 장치에 의해 획득된 의료 이미지는 이미지 분석이 이루어지기에 적합하지 않은 품질(또는 성질)을 가질 수 있다. 예컨대, 이미지는 의료 데이터 획득에 부적절한 형식적 또는 실질적 흠결을 가질 수 있다. 예를 들어, 이미지의 밝기, 이미지의 해상도, 촬영이 이루어진 부위, 촬영이 이루어진 방향, 촬영이 이루어진 각도 또는 그 밖의 촬영 중에 발생할 수 있는 문제로 인해 이미지 내에 발생된 다양한 결함 등으로 인해 의료 이미지는 일정 수준 이상의 품질을 구비하지 못할 수 있다. 또는, 이미지 파일의 형식, 크기 등 이미지의 형식이 필요 조건을 만족하지 아니할 수 있다.More specifically, the medical image acquired by the image acquisition device may have an unsuitable quality (or property) for image analysis to take place. For example, the image may have formal or substantial imperfections that are inappropriate for medical data acquisition. For example, a medical image may not be consistent due to the brightness of the image, the resolution of the image, the area in which the image was taken, the direction in which the image was taken, the angle at which the image was taken, or various defects that may occur in the image due to other problems that may occur during the image. It may not be of higher quality than the standard. Alternatively, the format of the image, such as the format and size of the image file, may not satisfy the necessary conditions.
상기와 같은 일정 수준 이상의 품질을 가지지 않는 의료 이미지를 기초로 분석이 이루어지는 경우, 그 분석 결과 또한 일정 수준 이상의 신뢰도를 구비하지 못할 수 있다. 이에 따라, 보다 높은 수준의 신뢰도를 가질 수 있는 분석 결과의 도출을 위해서는 이미지 획득 장치에 의해 획득된 이미지가 일정 수준 이상의 품질을 가지고 있는지에 관한 이미지 품질 판단이 이루어져야 한다.When the analysis is performed based on a medical image that does not have a quality above a certain level as described above, the analysis result may also not have reliability above a certain level. Accordingly, in order to derive an analysis result capable of having a higher level of reliability, an image quality determination must be made as to whether an image acquired by the image acquisition device has a quality above a certain level.
기존에는 촬영 장비를 통해 획득한 의료 이미지에 불량한 부분이 있는지 판단하기 위해 검수자가 직접 일일이 판단하였다. 다만, 검수자의 관점, 검수자의 경험, 검수자의 컨디션에 따라 판단 결과가 일정하지 않을 수 있어 일정한 수준의 정확도 높은 품질 판단이 이루어지기 어려운 한계점이 존재하였다.In the past, in order to determine whether there are any defects in the medical images acquired through the imaging equipment, the inspector personally judged them one by one. However, there was a limitation in that it was difficult to make a quality judgment with a certain level of accuracy and high quality because the judgment result may not be constant depending on the inspector's point of view, the inspector's experience, and the inspector's condition.
일 실시예에 따르면, 상술한 한계점을 극복하고, 촬영된 의료 이미지의 향상된 품질 판단을 위하여 인공지능이 활용될 수 있다. 즉, 일 실시예에 따른 이미지 분석 장치는 인공지능을 활용하여 높은 수준의 의료 이미지 품질 판단을 수행할 수 있다.According to an embodiment, artificial intelligence may be utilized to overcome the above-described limitations and to determine the improved quality of a photographed medical image. That is, the image analysis apparatus according to an embodiment may perform high-level medical image quality determination using artificial intelligence.
도 18은 일 실시예에 따른 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.18 is a diagram for describing an image quality determination process according to an embodiment.
도 18을 참조하면, 일 실시예에 따른 이미지 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 품질 판단 단계(S3300) 및 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다. 이 경우, 의료 이미지 품질 관련 정보 출력 단계(S3500)는 생략될 수 있다. 한편, 이미지 품질 판단 프로세스는 의료 이미지를 전처리하는 단계 및/또는 의료 이미지를 세그멘테이션하는 단계를 더 포함할 수 있다.Referring to FIG. 18 , the image quality determination process according to an exemplary embodiment may include a medical image acquisition step S3000 , a medical image quality determination step S3300 , and a medical image quality related information output step S3500 . In this case, the step of outputting medical image quality related information ( S3500 ) may be omitted. Meanwhile, the image quality determination process may further include pre-processing the medical image and/or segmenting the medical image.
도 19는 이미지 품질 판단 프로세스를 수행하는 이미지 분석 장치(3000)를 설명하기 위한 도면이다.19 is a diagram for explaining an
도 19를 참조하면, 이미지 분석 장치(3000)는 이미지 품질 판단 프로세스를 수행할 수 있다. 이미지 분석 장치(3000)는 이미지 품질 판단을 수행하기 위한 하나 이상의 모듈을 포함할 수 있다. 예컨대, 이미지 분석 장치(3000)는 전처리 수행 모듈(3300), 이미지 세그멘테이션 모듈(3500) 또는 이미지 품질 판단 모듈(3700), 이미지 품질 관련 정보 출력 모듈(3900) 중 적어도 어느 하나를 포함할 수 있다.Referring to FIG. 19 , the
이하에서는, 이미지 품질 판단 프로세스의 각 단계에 대하여 보다 구체적인 예를 들어 설명한다. 이하에서 설명하는 이미지 품질 판단 프로세스는 전술한 이미지 분석 장치(3000) 또는 본 명세서 전반에 걸쳐 설명하는 장치 또는 시스템에 의하여 수행될 수 있다.Hereinafter, each step of the image quality determination process will be described with more specific examples. The image quality determination process described below may be performed by the above-described
일 실시예에 따른 이미지 획득 장치는 의료 이미지를 획득할 수 있다. 예시적으로, 의료 이미지는 CT(Computed Tomography), MRI(Magnetic resonance imaging), X-ray 등의 이미지를 포함할 수 있으나, 이에 한정되는 것은 아니다. 이 경우, MRI 이미지는 MRI 촬영 장비에 의해 촬영될 수 있는 다양한 종류의 영상 예컨대, T1강조영상, T2강조영상 또는 FLAIR영상 등을 포함할 수 있다. 또한, MRI 이미지는 MRI 촬영 장비에 의해 촬영되는 다양한 종류의 평면 예컨대, Axial, Sagittal 또는 Coronal 평면에서 촬영된 이미지를 포함할 수 있다.The image acquisition apparatus according to an embodiment may acquire a medical image. For example, the medical image may include, but is not limited to, images such as computed tomography (CT), magnetic resonance imaging (MRI), and X-ray. In this case, the MRI image may include various types of images that can be captured by MRI imaging equipment, for example, a T1-weighted image, a T2-weighted image, or a FLAIR image. Also, the MRI image may include images photographed on various types of planes, for example, axial, sagittal, or coronal planes photographed by MRI imaging equipment.
일 실시예에 따른 이미지 획득 장치는 이미지 분석 장치(3000)는, 적어도 일부가 온전히 촬영되지 않은 의료 이미지를 획득할 수 있다. 예컨대, 이미지 분석 장치(3000)는, 대상 영역 중 적어도 일부가 누락되거나 부적절하게 촬영된 의료 이미지를 획득할 수 있다.In the image acquisition apparatus according to an embodiment, the
예를 들어, 이미지 획득 장치는 일정 수준 이하의 품질을 가지는 의료 이미지를 획득할 수 있다. 이미지 획득 장치는 일정 수준 이상의 신뢰도를 가지는 의료 정보의 추출을 기대하기 어려운 의료 이미지를 획득할 수 있다. 다른 예로, 이미지 획득 장치는 파일 구조가 비정상적이거나 환자 정보가 누락되어 있는 의료 이미지를 획득할 수 있다. 또 다른 예로, 이미지 획득 장치는 적어도 하나의 노이즈를 포함하고 있는 의료 이미지를 획득할 수 있다. 여기서, 노이즈는 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 의미할 수 있다.For example, the image acquisition apparatus may acquire a medical image having a quality below a certain level. The image acquisition apparatus may acquire a medical image in which it is difficult to expect extraction of medical information having a reliability level above a certain level. As another example, the image acquisition device may acquire a medical image having an abnormal file structure or missing patient information. As another example, the image acquisition apparatus may acquire a medical image including at least one noise. Here, the noise may mean various types of defects or states that affect the acquisition of information based on an image.
일 실시예에 따른 이미지 품질 판단 프로세스는 의료 이미지를 전처리하는 단계를 포함할 수 있다. 예컨대, 일 실시예에 따른 이미지 품질 판단 프로세스는 이미지 품질 판단이 수행되기에 적합하도록 이미지 획득 장치에 의해 획득된 의료 이미지를 전처리하는 단계를 포함할 수 있다.The image quality determination process according to an embodiment may include pre-processing the medical image. For example, the image quality determination process according to an embodiment may include preprocessing the medical image acquired by the image acquisition device to be suitable for image quality determination to be performed.
예시적으로, 이미지 전처리 단계는 의료 이미지 내에 포함되어 있는 아티팩트의 검출이 보다 원활히 이루어질 수 있도록 이미지의 밝기, 크기, 비율, 방향 또는 해상도를 보정하는 등의 다양한 전처리 과정을 수행하는 것을 포함할 수 있다. 다른 예로, 이미지 전처리 단계는 의료 이미지 내에 포함되어 있는 해부학적 구조에 관한 정보의 획득이 보다 원활히 이루어질 수 있도록 이미지의 밝기, 크기, 비율, 방향 또는 해상도를 보정하는 등의 다양한 전처리 과정을 수행하는 것을 포함할 수 있다.Illustratively, the image pre-processing step may include performing various pre-processing processes, such as correcting the brightness, size, ratio, direction, or resolution of the image so that the detection of artifacts included in the medical image can be performed more smoothly. . As another example, the image pre-processing step includes performing various pre-processing processes such as correcting the brightness, size, ratio, direction, or resolution of the image so that information on anatomical structures included in the medical image can be acquired more smoothly. may include
그 밖에도, 이미지 전처리 단계는 이미지 품질 판단을 위한 다양한 전처리 과정을 수행하는 것을 포함할 수 있으며, 이에 관한 자세한 내용은 상술한바 있으므로 중복되는 내용은 생략하도록 한다.In addition, the image pre-processing step may include performing various pre-processing processes for determining image quality, and since detailed information on this has been described above, redundant content will be omitted.
일 실시예에 따른 이미지 품질 판단 프로세스는 의료 이미지를 세그멘테이션(segmentation)하는 단계를 포함할 수 있다. 예컨대, 일 실시예에 따른 이미지 품질 판단 프로세스는 이미지 품질 판단을 위하여 이미지 획득 장치에 의해 획득된 의료 이미지를 세그멘테이션하는 단계를 포함할 수 있다.An image quality determination process according to an embodiment may include segmenting the medical image. For example, the image quality determination process according to an embodiment may include segmenting the medical image acquired by the image acquisition device for image quality determination.
예시적으로, 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 아티팩트와 관련된 정보의 획득을 위해 의료 이미지 세그멘테이션을 수행하는 것을 포함할 수 있다. 보다 구체적인 예로, 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 아티팩트와 대응되는 영역의 세그멘테이션을 수행하는 것을 포함할 수 있다.Exemplarily, the image segmentation step may include performing medical image segmentation to obtain information related to an artifact included in the medical image. As a more specific example, the image segmentation step may include performing segmentation of a region corresponding to an artifact included in the medical image.
아티팩트에 대응되는 영역의 세그멘테이션은, 의료 이미지에 포함된 아티팩트에 대응되는 영역을 획득하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 아티팩트 영역을 세그멘테이션하는 것은, 아티팩트 영역이 라벨링된 하나 이상의 의료 이미지를 포함하는 학습 데이터를 이용하여 학습된 신경망 모델을 이용하여 수행될 수 있다.The segmentation of the region corresponding to the artifact may be performed using a neural network model trained to obtain the region corresponding to the artifact included in the medical image. Segmenting the artifact region may be performed using a neural network model trained using training data including one or more medical images labeled with the artifact region.
다른 예로, 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 인체의 영역 중 적어도 일부에 기초하여 이미지 품질 판단이 이루어질 수 있도록 의료 이미지를 세그멘테이션하는 것을 포함할 수 있다. 보다 구체적인 예로, 이미지 세그멘테이션 단계는 이미지 품질 판단의 기초가 될 수 있는 인체의 해부학적 또는 기능적 구조에 관한 정보를 얻기 위해 의료 이미지를 세그멘테이션하는 것을 포함할 수 있다. 이미지 세그멘테이션 단계는 의료 이미지 내에 포함되어 있는 인체의 구조와 대응되는 영역의 세그멘테이션하는 것을 포함할 수 있다. 이미지 세그멘테이션 단계는 이미지 품질 판단에 이용되는 구조에 대응되는 영역을 획득하는 것을 포함할 수 있다.As another example, the image segmentation step may include segmenting the medical image so that image quality can be determined based on at least a part of a region of the human body included in the medical image. As a more specific example, the image segmentation step may include segmenting the medical image to obtain information about an anatomical or functional structure of a human body that may be a basis for determining image quality. The image segmentation step may include segmenting an area corresponding to the structure of the human body included in the medical image. The image segmentation step may include acquiring a region corresponding to a structure used for image quality determination.
인체의 구조에 대응되는 영역의 세그멘테이션은 신경망 모델을 이용하여 수행될 수 있다. 구조에 대응되는 영역의 세그멘테이션은 의료 이미지에 포함된 영역을 세그멘테이션하도록 학습된 신경망 모델을 이용하여 수행될 수 있다. 이미지 세그멘테이션 단계는 미리 학습된 신경망 모델을 이용하여 의료 이미지의 세그멘테이션을 수행하여 적어도 하나의 세그멘테이션된 영역을 획득하는 것을 포함할 수 있다. 이 경우, 적어도 하나의 세그멘테이션된 영역은 각각 다른 해부학적 또는 기능적 구조에 대응될 수 있다. 또한, 적어도 하나의 세그멘테이션된 영역은 품질 판단에 이용되는 인체 구조에 대응되는 영역을 포함할 수 있다. 해부학적 또는 기능적 구조에 대응되는 영역의 세그멘테이션은, 본 명세서 전반에 걸쳐 설명되는 이미지의 세그멘테이션과 관련된 내용이 유사하게 적용될 수 있다.Segmentation of a region corresponding to the structure of the human body may be performed using a neural network model. The segmentation of the region corresponding to the structure may be performed using a neural network model trained to segment the region included in the medical image. The image segmentation step may include performing segmentation of the medical image using a pre-trained neural network model to obtain at least one segmented region. In this case, the at least one segmented region may correspond to different anatomical or functional structures, respectively. Also, the at least one segmented region may include a region corresponding to a human body structure used for quality determination. Segmentation of a region corresponding to an anatomical or functional structure may be similarly applied to content related to segmentation of an image described throughout this specification.
도 20은 이미지 품질 판단 모듈(3700)을 설명하기 위한 도면이다.20 is a diagram for explaining the image
도 20을 참조하면, 이미지 품질 판단 모듈(3700)은 제1 이미지 품질 판단부(3710), 제2 이미지 품질 판단부(3730), 제3 이미지 품질 판단부(3750) 또는 제4 이미지 품질 판단부(3770) 중 적어도 어느 하나를 포함할 수 있다.Referring to FIG. 20 , the image
예시적으로, 제1 이미지 품질 판단부(3710)는 메타데이터 정보에 기초하여 이미지의 품질을 판단할 수 있고, 제2 이미지 품질 판단부(3730)는 노이즈 정보에 기초하여 이미지의 품질을 판단할 수 있고, 제3 이미지 품질 판단부(3750)는 해부학적으로 세그멘테이션된 세그멘테이션 정보에 기초하여 이미지의 품질을 판단할 수 있으며, 제4 이미지 품질 판단부(3770)는 복합 정보 예컨대, 노이즈 정보와 해부학적으로 세그멘테이션된 세그멘테이션 정보 간의 관계에 기초하여 이미지의 품질을 판단할 수 있다. 제1 이미지 품질 판단부(3710) 내지 제4 이미지 품질 판단부(3770)에 관한 자세한 내용은 후술하도록 한다.For example, the first image
일 실시예에 따른 이미지 품질 판단을 수행하는 신경망 모델은 이미지 획득 장치에 의해 획득되는 의료 이미지의 종류에 따라 다르게 학습 및 수행될 수 있다. 예시적으로, 이미지 획득 장치에 의해 획득되는 의료 이미지의 종류가 CT 이미지인 경우, 이미지 분석 장치(3000)의 이미지 품질 판단 모델은 CT 이미지에 기초하여 학습되고 수행되는 모델일 수 있다. 다른 예로, 이미지 획득 장치에 의해 획득되는 의료 이미지의 종류가 MRI인 경우, 이미지 분석 장치(3000)의 이미지 품질 판단 모델은 MRI 이미지에 기초하여 학습되고 수행되는 모델일 수 있다.A neural network model for determining image quality according to an embodiment may be differently learned and performed according to a type of a medical image acquired by the image acquisition device. For example, when the type of the medical image acquired by the image acquisition apparatus is a CT image, the image quality determination model of the
일 실시예에 따른 제1 이미지 품질 판단부(3710)는 이미지 분석이 정상적으로 이루어질 수 있는지 여부를 판단하기 위해 메타데이터 정보에 기초하여 수행될 수 있다. 이때, 메타데이터 정보는 이미지 획득 장치로부터 획득한 의료 이미지에 관한 정보를 포함할 수 있다. 보다 구체적으로, 메타데이터 정보는 의료 이미지의 파일 구조 정보 또는 의료 이미지에 입력되어 있는 환자 정보 중 적어도 어느 하나를 포함할 수 있다.The first image
도 21은 제1 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.21 is a diagram for explaining a first image quality determination process.
도 21을 참조하면, 제1 이미지 품질 판단 프로세스는 의료 이미지 획득 단계(S3711), 비-이미지 정보 획득 단계(S3713), 비-이미지 정보 정상 여부 판단 단계(S3715) 및 비-이미지 관련 정보 출력 단계(S3717)를 포함할 수 있다.Referring to FIG. 21 , the first image quality determination process includes a medical image acquisition step (S3711), a non-image information acquisition step (S3713), a non-image information normal determination step (S3715), and a non-image-related information output step (S3717) may be included.
비-이미지 정보 획득 단계(S3713)는 의료 이미지로부터 의료 이미지 정보를 획득하는 것을 포함할 수 있다. 비-이미지 정보 획득 단계(S3713)는 의료 이미지로부터 비-이미지 정보를 획득하는 것을 포함할 수 있다. 여기서, 비-이미지 정보는 의료 이미지의 파일 구조 정보 또는 의료 이미지에 입력되어 있는 환자 정보를 포함할 수 있다.The non-image information acquisition step S3713 may include acquiring medical image information from a medical image. The non-image information obtaining step S3713 may include obtaining non-image information from the medical image. Here, the non-image information may include file structure information of the medical image or patient information input to the medical image.
이때, 의료 이미지의 파일 구조 정보는 의료 이미지의 파일 형식, 의료 이미지의 포맷 또는 파일의 크기에 관한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 환자 정보는 환자의 성명, 나이 등의 인적 사항과 관련된 정보, 환자가 의료 이미지를 촬영한 시점과 관련된 정보 또는 환자의 건강 상태에 관한 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.In this case, the file structure information of the medical image may include information about the file format of the medical image, the format of the medical image, or the size of the file, but is not limited thereto. In addition, the patient information may include, but is not limited to, information related to personal information such as the patient's name and age, information related to a time when the patient took a medical image, or information about the patient's health condition.
비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지로부터 추출한 비-이미지 정보에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지로부터 파일 구조 정보 또는 환자 정보 중 적어도 어느 하나에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다.The step of determining whether non-image information is normal ( S3715 ) may include determining image quality based on non-image information extracted from the medical image. The determining whether non-image information is normal ( S3715 ) may include determining image quality based on at least one of file structure information and patient information from a medical image.
일 실시예에 따르면, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지의 파일 구조가 비정상적인지 여부를 판단할 수 있다. 여기서 의료 이미지의 파일 구조는 의료 이미지의 파일 형식, 의료 이미지의 포맷 또는 파일의 크기를 의미할 수 있으나 이에 한정되는 것은 아니다.According to an embodiment, the determining whether the non-image information is normal ( S3715 ) may determine whether the file structure of the medical image is abnormal. Here, the file structure of the medical image may mean the file format of the medical image, the format of the medical image, or the size of the file, but is not limited thereto.
예를 들어, 의료 이미지의 파일 형식 또는 포맷은 이미지 분석 장치(3000)에 의해 이미지 분석이 수행되기에 적합한 파일 형식 또는 포맷이어야 하므로, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지의 파일 형식 또는 포맷이 이미지 분석 장치(3000)에 의해 이미지 분석이 수행되기에 적합한 파일 형식 또는 포맷인지 여부를 판단하는 것을 포함할 수 있다. 이에 따라, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지의 파일 구조 정보에 기초하여 이미지 분석이 정상적으로 이루어질 수 있는지 여부에 관한 정보를 획득하는 것을 포함할 수 있다.For example, since the file format or format of the medical image must be a file format or format suitable for image analysis performed by the
다른 실시예에 따르면, 비-이미지 정보 정상 여부 판단 단계(S3715)는 이미지 획득 장치로부터 획득한 의료 이미지에 환자 정보가 누락되어 있는지 여부를 판단하는 것을 포함할 수 있다. 여기서 환자 정보는 환자의 성명, 나이 등의 인적 사항 또는 환자의 건강 상태에 관한 정보를 포함할 수 있으나 이에 한정되는 것은 아니다.According to another embodiment, the step of determining whether non-image information is normal ( S3715 ) may include determining whether patient information is missing from the medical image acquired from the image acquisition device. Here, the patient information may include, but is not limited to, personal information such as the patient's name and age, or information about the patient's health status.
예를 들어, 의료 이미지에 환자 정보가 포함되어 있지 않으면 이미지 분석 장치(3000)에 의한 이미지 분석 결과가 어느 환자에 관한 것인지 알 수 없으므로, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지에 환자 정보가 포함되어 있는지 여부를 판단하는 것을 포함할 수 있다. 이에 따라, 비-이미지 정보 정상 여부 판단 단계(S3715)는 의료 이미지에 환자 정보가 입력되어 있는지 여부에 관한 정보를 획득하는 것을 포함할 수 있다.For example, if patient information is not included in the medical image, it is not possible to know which patient the image analysis result by the
도 22는 제1 이미지 품질 판단부(3710)를 설명하기 위한 도면이다.22 is a diagram for explaining the first image
도 22를 참조하면, 제1 이미지 품질 판단부(3710)는 비-이미지 정보 획득부(3711) 또는 비-이미지 정보 정상 여부 판단부(3717) 중 적어도 하나를 포함할 수 있다.Referring to FIG. 22 , the first image
비-이미지 정보 획득부(3711)는 파일 구조 정보 획득부(3713) 또는 환자 정보 획득부(3715)를 포함할 수 있다. 비-이미지 정보 획득부(3711)는 획득된 의료 이미지에 기초하여 비-이미지 정보를 획득할 수 있다. 이 경우, 획득된 의료 이미지는 전처리 동작 전의 로데이터 또는 전처리 동작이 수행된 이미지를 포함할 수 있다.The non-image
비-이미지 정보 정상 여부 판단부(3717)는 비-이미지 정보 획득부(3711)에서 획득한 비-이미지 정보에 기초하여 비-이미지 정보가 정상인지 여부를 판단할 수 있다. 비-이미지 정보 정상 여부 판단부(3717)는 비-이미지 정보가 정상인지 여부를 판단한 결과에 관한 정보를 출력할 수 있다. 예시적으로, 비-이미지 정보 정상 여부 판단부(3717)는 의료 이미지의 파일 구조 정보에 기초하여 이미지 분석이 정상적으로 이루어질 수 있는지 여부에 관한 정보 또는 의료 이미지에 환자 정보가 입력되어 있는지 여부에 관한 정보를 출력할 수 있다.The non-image
일 실시예에 따른 제2 이미지 품질 판단부(3730)는 이미지 내에 포함되어 있는 노이즈 정보를 추출하는 기능을 수행할 수 있다. 여기서, 노이즈 정보는 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 의미할 수 있다. 예컨대, 노이즈 정보는 이미지의 해상도와 관련된 정보, 이미지의 밝기와 관련된 정보 또는 이미지에 발생된 아티팩트 정보를 포함할 수 있으며, 이 외에 부적절한 영상 샘플링의 결과로 만들어지는 다양한 화상의 결함을 의미할 수 있다.The second image
도 23은 제2 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.23 is a diagram for explaining a second image quality determination process.
도 23을 참조하면, 제2 이미지 품질 판단 프로세스는 의료 이미지 획득 단계(S3731), 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733), 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735) 및 아티팩트 정보 출력 단계(S3737)를 포함할 수 있다.Referring to FIG. 23 , the second image quality determination process includes obtaining a medical image ( S3731 ), determining whether an artifact occurs in the medical image ( S3733 ), obtaining artifact information from the medical image ( S3735 ), and outputting artifact information (S3737) may be included.
의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733)는 의료 이미지 내에 아티팩트가 포함되어 있는지 여부를 판단하는 것을 포함할 수 있다. 여기서, 아티팩트는 의료 이미지에서 해부학적 구조를 충실하게 보여주지 않는 픽셀에 관련된 노이즈를 포함할 수 있다. 예시적으로, 아티팩트는 Motion artifact, Bias artifact, Zipper artifact, Ghost artifact, Spike artifact 등의 종류를 포함할 수 있으나, 이에 한정되는 것은 아니며 기 알려진 다양한 종류의 아티팩트를 포함할 수 있다.The step of determining whether an artifact is generated in the medical image ( S3733 ) may include determining whether an artifact is included in the medical image. Here, the artifact may include noise related to pixels that do not faithfully show anatomical structures in the medical image. Illustratively, the artifact may include a motion artifact, a bias artifact, a zipper artifact, a ghost artifact, a spike artifact, and the like, but is not limited thereto, and may include a variety of known artifacts.
의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 의료 이미지 내에 발생된 아티팩트에 관한 정보를 획득하는 것을 포함할 수 있다. 여기서, 아티팩트 정보는 아티팩트와 관련 있는 정보 예컨대, 아티팩트의 발생 여부에 관한 정보, 아티팩트 발생 위치에 관한 정보, 발생된 아티팩트의 종류에 관한 정보, 아티팩트의 발생 정도에 관한 정보 등을 포함할 수 있다.The step of acquiring artifact information from the medical image ( S3735 ) may include acquiring information about the artifact generated in the medical image. Here, the artifact information may include information related to the artifact, for example, information on whether or not the artifact has occurred, information on the location of the occurrence of the artifact, information on the type of the generated artifact, information on the degree of occurrence of the artifact, and the like.
일 실시예에 따르면, 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733) 또는 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 학습된 신경망 모델을 이용하여 수행하는 것을 포함할 수 있다. 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733)는 학습된 신경망 모델을 이용하여 의료 이미지 내에 아티팩트가 발생되었는지 여부를 판단하는 것을 포함할 수 있다. 도면에서는 의료 이미지 내 아티팩트 발생 여부 판단 단계(S3733)와 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)를 구분 지어 표현하였지만, 각 단계는 하나의 신경망 모델을 이용하여 아티팩트 발생 여부 및 아티팩트와 관련된 정보를 획득하는 것을 포함할 수 있다.According to an embodiment, the step of determining whether an artifact occurs in the medical image ( S3733 ) or the step of acquiring artifact information from the medical image ( S3735 ) may include performing using a learned neural network model. The step of determining whether an artifact has occurred in the medical image ( S3733 ) may include determining whether an artifact has occurred in the medical image using a learned neural network model. In the drawing, the step (S3733) of determining whether an artifact occurs in the medical image and the step (S3735) of acquiring artifact information from the medical image are expressed separately, but each step uses a single neural network model to determine whether or not an artifact occurs and information related to the artifact may include obtaining
신경망 모델은 의료 이미지에 기초하여 아티팩트 발생 여부를 획득할 수 있다. 신경망 모델은 입력된 의료 이미지에 기초하여, 획득된 의료 이미지의 특정 영역 내에 아티팩트가 존재하는지 여부를 획득할 수 있다.The neural network model may acquire whether an artifact has occurred based on the medical image. The neural network model may acquire, based on the input medical image, whether an artifact exists in a specific region of the acquired medical image.
또한, 신경망 모델은 의료 이미지에 기초하여 아티팩트 정보를 획득할 수 있다. 신경망 모델은 입력된 의료 이미지에 기초하여 아티팩트의 발생 여부에 관한 정보, 아티팩트 발생 위치에 관한 정보, 발생된 아티팩트의 종류에 관한 정보, 아티팩트의 발생 정도에 관한 정보를 획득할 수 있다.Also, the neural network model may acquire artifact information based on the medical image. Based on the input medical image, the neural network model may acquire information on whether or not an artifact has occurred, information about an artifact occurrence location, information about a type of the generated artifact, and information about an occurrence degree of an artifact.
아티팩트 정보는 이미지 획득 장치에 의해 획득된 의료 이미지에 기초하여 획득될 수 있다. 예시적으로, 아티팩트 정보는 의료 이미지에 기초하여 아티팩트 정보를 획득하도록 학습된 신경망 모델을 이용하여 획득될 수 있다.The artifact information may be acquired based on a medical image acquired by the image acquisition device. Illustratively, the artifact information may be obtained using a neural network model trained to obtain the artifact information based on the medical image.
아티팩트 정보 획득을 위하여, 입력 이미지를 하나 이상의 라벨에 대하여 분류 또는 예측하는 분류기 알고리즘이 이용될 수 있다. 분류 또는 예측을 위하여, 다양한 형태의 알고리즘이 이용될 수 있다. 예컨대, K-최근접이웃(k-nearest neighbor), 서포트벡터머신(Support Vector Machine), 인공신경망(Artificial Neural Nerwork), 의사결정나무(Decision Tree), 자기조직화 맵(Self-organizing map), 논리적 회귀(Logistic regression) 등이 이용될 수 있다.In order to obtain artifact information, a classifier algorithm that classifies or predicts an input image with respect to one or more labels may be used. For classification or prediction, various types of algorithms may be used. For example, k-nearest neighbor, support vector machine, artificial neural network, decision tree, self-organizing map, logical Logistic regression or the like may be used.
인공 신경망은 분류기, 하이브리드형 분류기 (Hybrid classifiers), 앙상블형 분류기 (Ensemble classifiers), 선형 회귀(Linear Regression) 신경망 등일 수 있다. 인공 신경망은 CNN(Convolutional Neural Network)을 포함할 수 있다. 인공 신경망은 지도 학습, 비지도 학습 또는 강화 학습된 모델일 수 있다.The artificial neural network may be a classifier, hybrid classifiers, ensemble classifiers, a linear regression neural network, or the like. The artificial neural network may include a Convolutional Neural Network (CNN). Artificial neural networks may be supervised learning, unsupervised learning, or reinforcement learning models.
도 25는 일 실시예에 따른 아티팩트 정보 획득을 위한 신경망 모델을 설명하기 위한 도면이다. 도 25를 참조하면, 일 실시예에 따른 신경망 모델은 분류기 형태로 마련될 수 있다. 일 실시예에 따르면, 신경망 모델은 입력 레이어(IL), 풀링 레이어(PL), 컨벌루션 신경망 레이어(CL), 전연결 레이어(FCL), 히든 레이어(HL) 및 출력 레이어(OL) 등을 포함하고, 입력 이미지에 기초하여 특징 벡터를 획득할 수 있다. 신경망 모델은 입력 이미지를 하나 이상의 라벨로 분류하는 분류기 형태로 마련될 수 있다. 또는 신경망 모델은 회귀 모델 형태로 마련될 수도 있다. 신경망 모델은 입력에 이미지에 기초하여, 특정 아티팩트 정보에 대한 선형 출력값을 획득하는 회귀 모델로 마련될 수 있다.25 is a diagram for describing a neural network model for acquiring artifact information according to an embodiment. Referring to FIG. 25 , a neural network model according to an embodiment may be provided in the form of a classifier. According to an embodiment, the neural network model includes an input layer (IL), a pooling layer (PL), a convolutional neural network layer (CL), a full-connection layer (FCL), a hidden layer (HL), an output layer (OL), and the like. , a feature vector may be obtained based on the input image. The neural network model may be prepared in the form of a classifier that classifies input images into one or more labels. Alternatively, the neural network model may be prepared in the form of a regression model. The neural network model may be prepared as a regression model that obtains a linear output value for specific artifact information based on an image as an input.
신경망 모델은 인체의 특정 영역을 촬영하여 획득된 의료 이미지를 입력으로 하여, 출력 정보를 획득할 수 있다. 출력 정보는 입력된 이미지가 대상 오브젝트를 포함하는지 여부를 나타낼 수 있다. 예컨대, 신경망 모델의 출력 레이어는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 신경망 모델의 출력 레이어는 대상 이미지가 대상 오브젝트를 포함하는지 여부를 나타내는 확률 함수가 부여된 출력 노드를 포함할 수 있다. 출력 레이어는 하나 이상의 대상 오브젝트에 대하여, 입력 이미지가 각각의 대상 오브젝트를 포함하는지 여부를 나타내는 하나 이상의 확률 함수가 부여된 출력 노드를 포함할 수 있다.The neural network model may acquire output information by using a medical image obtained by photographing a specific region of the human body as an input. The output information may indicate whether the input image includes the target object. For example, the output layer of the neural network model may include an output node to which a probability function is assigned. The output layer of the neural network model may include an output node to which a probability function indicating whether the target image includes the target object is assigned. The output layer may include, for one or more target objects, an output node to which one or more probability functions indicating whether an input image includes each target object are assigned.
신경망 모델은 아티팩트 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 아티팩트 정보가 라벨링된 의료 이미지를 하나 이상 포함하는 학습 데이터에 기초하여, 아티팩트 정보를 획득하도록 학습될 수 있다. 신경망 모델은, 아티팩트 영역이 라벨링된 의료 이미지를 하나 이상 포함하는 학습 데이터에 기초하여, 아티팩트 영역을 획득하도록 학습될 수 있다.A neural network model can be trained to obtain artifact information. The neural network model may be trained to obtain artifact information based on training data including one or more medical images labeled with artifact information. The neural network model may be trained to obtain the artifact region based on training data including one or more medical images labeled with the artifact region.
아티팩트 학습 데이터는 복수의 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 다양한 방식으로 촬영되는 의료 이미지 예컨대, CT, MRI 또는 X-ray 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 다양한 종류, 범위, 크기, 모양 또는 위치의 아티팩트가 포함된 복수의 의료 이미지를 포함할 수 있다.The artifact learning data may include a plurality of medical images. The artifact learning data may include medical images taken in various ways, for example, CT, MRI, or X-ray images. The artifact training data may include a plurality of medical images including artifacts of various types, ranges, sizes, shapes, or locations.
아티팩트 학습 데이터는 아티팩트 발생 유무를 나타내는 아티팩트 라벨이 부여된 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 인체의 다양한 부위를 촬영하여 획득되고 아티팩트 발생 유무를 나타내는 아티팩트 라벨이 부여된 의료 이미지를 포함할 수 있다. 여기서, 아티팩트 라벨은 아티팩트의 발생 위치, 아티팩트의 발생 정도, 아티팩트의 발생 모양 또는 아티팩트의 종류 등에 따라 달리 부여될 수 있다.The artifact learning data may include a medical image to which an artifact label indicating whether an artifact is generated or not. The artifact learning data may include a medical image obtained by photographing various parts of the human body and to which an artifact label indicating the occurrence of artifacts is attached. Here, the artifact label may be differently assigned according to the location of the occurrence of the artifact, the degree of occurrence of the artifact, the shape of the occurrence of the artifact, or the type of the artifact.
아티팩트 학습 데이터는 아티팩트 발생 영역에 마스킹된 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 하나 이상의 아티팩트 발생 영역에 대하여 마스킹(또는 라벨링)된 의료 이미지를 포함할 수 있다. 아티팩트 학습 데이터는 복수 종류의 아티팩트 발생 영역에 대하여 서로 달리 마스킹(또는 라벨링)된 의료 이미지를 포함할 수 있다. 예컨대, 아티팩트 학습 데이터는 제1 종류의 아티팩트 발생에 대하여 제1 색상으로 표시되고, 제2 종류의 아티팩트 발생에 대하여 제2 색상으로 표시된 의료 이미지를 포함할 수 있다.The artifact learning data may include a medical image masked in the artifact generation region. The artifact learning data may include masked (or labeled) medical images with respect to one or more artifact generating regions. The artifact learning data may include medical images that are masked (or labeled) differently with respect to a plurality of types of artifact generating regions. For example, the artifact learning data may include a medical image displayed in a first color for occurrence of a first type of artifact and displayed with a second color for occurrence of a second type of artifact.
신경망 모델은 상술한 아티팩트 학습 데이터를 이용하여 학습될 수 있다. 신경망 모델은 아티팩트 학습 데이터를 이용하여, 의료 이미지에 기초하여 아티팩트 정보를 획득하도록 지도, 비지도 또는 강화 학습될 수 있다. 신경망 모델은 역전파 방식을 이용하여 학습될 수 있다.The neural network model may be trained using the aforementioned artifact training data. The neural network model may be supervised, unsupervised, or reinforcement trained to obtain artifact information based on a medical image, using artifact learning data. A neural network model can be trained using a backpropagation method.
신경망 모델은 의료 이미지를 아티팩트 발생 여부가 라벨링된 의료 이미지를 포함하는 아티팩트 학습 데이터를 이용하여 아티팩트를 포함하는지 여부에 따라 분류하도록 학습될 수 있다. 신경망 모델은 의료 이미지를 의료 이미지에 포함된 아티팩트의 종류에 따라 분류하도록 학습될 수 있다. 신경망 모델은 복수 종류의 아티팩트의 유무에 대하여 라벨링된 의료 이미지를 포함하는 아티팩트 학습 데이터를 통하여, 복수의 아티팩트에 대하여, 대상 이미지가 각 종류의 아티팩트를 포함하는지 여부를 획득하도록 학습될 수 있다.The neural network model may be trained to classify medical images according to whether or not they contain artifacts using artifact learning data including medical images labeled with or without artifacts. The neural network model may be trained to classify medical images according to types of artifacts included in the medical images. The neural network model can be trained to obtain whether a target image includes each type of artifact with respect to a plurality of artifacts through artifact learning data including medical images labeled with respect to the presence or absence of multiple types of artifacts.
신경망 모델은 아티팩트 학습 데이터를 통하여 아티팩트 영역 정보를 획득하도록 학습될 수 있다. 신경망 모델은 하나 이상의 종류의 아티팩트에 대하여 아티팩트 발생 부위에 마스킹된 의료 이미지를 포함하는 아티팩트 학습 데이터를 이용하여 대상 이미지로부터 아티팩트 발생 영역을 검출하도록 학습될 수 있다. 신경망 모델은 복수 종류의 아티팩트 발생 영역에 대하여 라벨링된 의료 이미지를 포함하는 아티팩트 학습 데이터를 통하여, 의료 이미지에 포함된 복수의 아티팩트 각각에 대하여, 각 아티팩트가 분포하는 영역 및/또는 종류에 대한 아티팩트 영역 정보를 획득하도록 학습될 수 있다.The neural network model may be trained to acquire artifact region information through artifact learning data. The neural network model may be trained to detect an artifact-generating region from a target image by using artifact learning data including a medical image masked to the artifact-generating region with respect to one or more types of artifacts. The neural network model uses artifact learning data including a medical image labeled with respect to a plurality of types of artifact generation regions, and for each of a plurality of artifacts included in the medical image, a region and/or an artifact region for a type in which each artifact is distributed. can be learned to obtain information.
신경망 모델은 복수의 아티팩트 학습 데이터를 이용하여 학습될 수도 있다. 신경망 모델은 제1 종류의 아티팩트를 가지는 의료 이미지를 포함하는 제1 아티팩트 학습 데이터 및 제2 종류의 아티팩트를 가지는 의료 이미지를 포함하는 제2 아티팩트 학습 데이터를 이용하여 학습될 수 있다.The neural network model may be trained using a plurality of artifact training data. The neural network model may be trained using first artifact training data including a medical image having a first type of artifact and second artifact training data including a medical image having a second type of artifact.
한편, 복수의 신경망 모델이 학습 및 이용될 수도 있다. 제1 신경망 모델은 제1 아티팩트 학습 데이터에 기초하여 학습되고, 제2 신경망 모델은 제2 아티팩트 학습 데이터에 기초하여 학습될 수 있다. 제2 아티팩트 학습 데이터는 제1 아티팩트 학습 데이터와 적어도 일부 상이할 수 있다.Meanwhile, a plurality of neural network models may be trained and used. The first neural network model may be trained based on the first artifact training data, and the second neural network model may be trained based on the second artifact training data. The second artifact training data may be at least partially different from the first artifact training data.
도 24는 제2 이미지 품질 판단 프로세스가 인공 신경망 모델을 이용하여 의료 이미지 내의 아티팩트 발생 위치를 판단하는 것을 예시적으로 설명하기 위한 도면이다. 도 24를 참조하면, 신경망 모델은 이미지 획득 장치를 통해 획득된 의료 이미지를 입력으로 하여 아티팩트 발생 위치에 관한 아티팩트 영역 정보를 획득할 수 있다.24 is a diagram for exemplarily explaining that the second image quality determination process determines the location of the artifact in the medical image using the artificial neural network model. Referring to FIG. 24 , the neural network model may acquire artifact region information regarding an artifact occurrence location by inputting a medical image acquired through an image acquisition device.
도 24를 참조하면, 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 의료 이미지 내의 아티팩트 영역 정보를 획득하는 것을 포함할 수 있다.Referring to FIG. 24 , the step of acquiring artifact information from the medical image ( S3735 ) may include acquiring information about the artifact area in the medical image.
아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내기 위한 표시, 예컨대 히트맵 형태의 샐리언시 맵 형태로 구비될 수 있다. 아티팩트 영역 정보는 아티팩트 유무를 판단하는 신경망 모델 또는 아티팩트 정보를 획득하는 신경망 모델로부터 획득된 특징맵일 수 있다.The artifact area information may be provided in the form of a mark for indicating a region where the artifact is likely to be located in the medical image, for example, in the form of a saliency map in the form of a heat map. The artifact area information may be a feature map obtained from a neural network model for determining whether or not artifacts are present or a neural network model for acquiring artifact information.
아티팩트 영역은, 학습된 신경망 모델로부터 획득되고 대상 의료 이미지에 존재하는 대상 아티팩트와 관련된 특징맵에 기초하여 특징맵 상에서 대상 아티팩트와의 관련성이 기준값 이상인 영역일 수 있다. 아티팩트 영역은, 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함할 수 있다. 제1 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역일 수 있다. 제2 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.The artifact region may be a region in which relevance to the target artifact is greater than or equal to a reference value on the feature map based on a feature map obtained from the trained neural network model and related to the target artifact existing in the target medical image. The artifact area may include a first area and a second area positioned within the first area. The first region may be a region having a relevance to a target artifact equal to or greater than the first reference value on the feature map. The second area may be an area having a relevance to a target artifact on the feature map equal to or greater than a second reference value greater than the first reference value.
도 24의 (a) 내지 (c)를 참조하면, 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 아티팩트가 포함된 제1 원본 이미지(a), 제2 원본 이미지(b), 제3 원본 이미지(c)를 획득하는 것을 포함할 수 있다. 이 경우, 제1 원본 이미지(a) 내지 제3 원본 이미지(c)는 각각 서로 다른 평면에서 촬영된 이미지일 수 있다. 제1 원본 이미지(a) 내지 제3 원본 이미지(c)는 동일한 피검자에 대하여 동일 시점에서 촬영된 이미지일 수 있다.24 (a) to (c), the step of acquiring artifact information from the medical image (S3735) includes the first original image (a), the second original image (b), and the third original including artifacts. It may include acquiring an image (c). In this case, the first original image (a) to the third original image (c) may be images photographed on different planes, respectively. The first original image (a) to the third original image (c) may be images captured at the same point in time for the same subject.
도 24의 (d) 내지 (f)를 참조하면, 의료 이미지로부터 아티팩트 정보를 획득하는 단계(S3735)는 아티팩트의 위치가 표현된 제1 아티팩트 이미지(d), 제2 아티팩트 이미지(e), 제3 아티팩트 이미지(f)를 획득하는 것을 포함할 수 있다. 여기서, 제1 아티팩트 이미지(d)는 제1 원본 이미지(a)에 기초하여 획득된 아티팩트 영역 정보가 제1 원본 이미지(a)에 표시된 이미지일 수 있다. 제2 아티팩트 이미지(e)는 제2 원본 이미지(b)에 기초하여 획득된 아티팩트 영역 정보가 제2 원본 이미지(b)에 표시된 이미지일 수 있다. 제3 아티팩트 이미지(f)는 제3 원본 이미지(c)에 기초하여 획득된 아티팩트 영역 정보가 제3 원본 이미지(c)에 표시된 이미지일 수 있다.24 (d) to (f), the step of obtaining artifact information from the medical image (S3735) is a first artifact image (d), a second artifact image (e), a second artifact image in which the position of the artifact is expressed 3 may include acquiring an artifact image (f). Here, the first artifact image (d) may be an image in which artifact area information obtained based on the first original image (a) is displayed in the first original image (a). The second artifact image (e) may be an image in which artifact area information obtained based on the second original image (b) is displayed in the second original image (b). The third artifact image f may be an image in which artifact area information obtained based on the third original image c is displayed in the third original image c.
또한, 도 24의 (d) 내지 (f)를 참조하면, 제1 내지 제3 아티팩트 이미지는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 순서로 제1 영역(A1) 내지 제4 영역(A4)이 표시된 이미지 일 수 있다. 여기서, 제1 영역(A1) 내지 제4 영역(A4)은 이미지 내 아티팩트가 위치하는 영역과 대응되는 영역일 수 있다. 제1 영역(A1) 내지 제4 영역(A4)은 이미지 내 아티팩트가 위치하는 영역의 적어도 일부를 포함하는 영역일 수 있다. 제1 영역(A1)은 제2 영역(A2)에 포함되는 영역일 수 있다. 제2 영역(A2)은 제3 영역(A3)에 포함되는 영역일 수 있다. 제3 영역(A3)은 제4 영역(A4)에 포함되는 영역일 수 있다.Also, referring to (d) to (f) of FIG. 24 , the first to third artifact images are the first to fourth regions A1 to A4 in the order in which the artifacts are most likely to be located in the medical image. This may be the displayed image. Here, the first area A1 to the fourth area A4 may correspond to areas in which the artifact is located in the image. The first area A1 to the fourth area A4 may be an area including at least a portion of an area in which an artifact is located in the image. The first area A1 may be an area included in the second area A2 . The second area A2 may be an area included in the third area A3 . The third area A3 may be an area included in the fourth area A4 .
도면에는 도시되지 않았지만, 아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치하는 영역을 표시하기 위한 바운딩 박스를 포함할 수 있다. 아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치하는 좌표 정보, 픽셀 정보 등을 포함할 수 있다. 예시적으로, 제2 이미지 품질 판단부(3730)는 아티팩트 발생 위치 정보를 획득하기 위해 BBMs(Backpropagation Based Method), ABMs(Activation Based Method), PBMs(Pertubation Based Method) 등의 인공 신경망 모델을 이용할 수 있으며, 여기서, BBMs 방법으로는 LRP(Layer-wise Relevance Propagation), DeepLIFT, SmoothGrad, VarGrad 등이 있을 수 있고, ABMs 방법으로는 CAM(Class Activation Map), Grad-CAM(Gradient-Class Activation Map) 등이 있을 수 있으며, PBMs 방법으로는 LIME(Local Interpretable Model-Agnostic Explanation) 등이 있을 수 있다.Although not shown in the drawing, the artifact area information may include a bounding box for displaying an area where the artifact is located in the medical image. The artifact area information may include coordinate information, pixel information, and the like at which the artifact is located in the medical image. Illustratively, the second image
일 실시예에 따른 제3 이미지 품질 판단부(3750)는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여, 세그멘테이션 정보가 정량적인 기준을 만족하는지를 고려하여 품질 판단을 수행할 수 있다. 보다 구체적인 예로, 제3 이미지 품질 판단부(3750)는 의료 이미지가 포함하고 있는 해부학적 구조 중 적어도 일부가 미리 정해진 정량적인 기준을 만족하는지를 판단할 수 있다.The third image
제3 이미지 품질 판단부(3750)는 이미지 내에 포함되고 인체의 일 부위에 대응되는 소정 영역과 관련된 값이 기준을 만족하는지 여부를 판단할 수 있다. 제3 이미지 품질 판단부(3750)는 이미지 촬영 장치를 통해 촬영된 인체의 해부학적 구조 중 적어도 일부가 온전히 촬영되었는지 여부를 판단할 수 있다.The third image
예를 들어, 인체의 특정 부위를 이미지 촬영 장치를 통해 촬영한 후 이를 분석하는 경우, 촬영된 인체의 영역 중 적어도 일부의 형태학적 지표를 통해 질병을 판단할 수 있는데, 이때, 인체의 각 영역의 촬영이 온전히 이루어지지 않은 경우 질병 판단의 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 따라서, 인체의 각 영역은 온전히 촬영되어야 하므로, 제3 이미지 품질 판단부(3750)는 의료 이미지가 포함하고 있는 인체의 해부학적 영역에 기초한 형태학적 지표가 일반적으로 요구되는 기준 값을 만족하는지를 고려하여 인체의 각 영역의 촬영이 온전히 이루어졌는지 여부를 판단하는 기능을 수행할 수 있다.For example, when a specific part of the human body is photographed by an image capturing device and then analyzed, the disease may be determined based on morphological indices of at least some of the photographed regions of the human body. If the imaging is not completely done, the result of the diagnosis of the disease cannot have a certain level of reliability. Therefore, since each region of the human body must be completely photographed, the third image
보다 구체적인 예로, 이미지 분석 장치(3000)가 뇌에 관한 MRI 이미지를 분석하는 경우, 뇌의 각 해부학적 영역에 관한 부피 값의 비율을 계산하여 질병을 판단할 수 있는데, 이때 촬영된 뇌의 특정 영역의 부피 값이 일반적으로 요구되는 기준 값을 만족하지 않는 경우 질병 판단 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 이때, 뇌의 특정 영역이 온전히 촬영되지 못하였다면 해당 영역의 부피 값을 기초로 질병 판단이 이루어지게 되면 질병 판단의 결과는 부정확할 수 있다. 이에 따라, 제3 이미지 품질 판단부(3750)는 MRI 이미지가 포함하고 있는 뇌의 각 영역에 관한 형태학적 지표가 일반적으로 요구되는 기준 값을 만족하는지를 고려하여 뇌의 각 영역의 촬영이 온전히 이루어졌는지 여부를 판단하는 기능을 수행할 수 있다.As a more specific example, when the
도 26은 제3 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.26 is a diagram for explaining a third image quality determination process.
도 26을 참조하면, 제3 이미지 품질 판단 프로세스는 이미지 세그멘테이션 정보 획득 단계(S3751), 품질 판단 대상 영역 획득 단계(S3753), 대상 영역의 형태학적 지표 획득 단계(S3755) 및 대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)를 포함할 수 있다.Referring to FIG. 26 , the third image quality determination process includes an image segmentation information acquisition step (S3751), a quality determination target region acquisition step (S3753), a morphological index acquisition step of the target region (S3755), and a morphological index of the target region and comparing with a reference value (S3757).
이미지 세그멘테이션 정보 획득 단계(S3751)는 이미지 세그멘테이션 모듈(3500)에 의해 세그멘테이션된 의료 이미지에 기초하여 획득된 세그멘테이션 정보를 획득하는 것을 포함할 수 있다.The image segmentation information obtaining step S3751 may include obtaining segmentation information obtained based on the medical image segmented by the
세그멘테이션 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조에 관한 정보를 포함할 수 있다. 세그멘테이션 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 지표를 포함할 수 있다. 또한, 세그멘테이션 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 값을 포함할 수 있다.The segmentation information may include information about an anatomical structure of a human body obtained by segmenting a medical image. The segmentation information may include a morphological index of at least a partial region of an anatomical structure of a human body obtained by segmenting a medical image. Also, the segmentation information may include a morphological value of at least a partial region of an anatomical structure of a human body obtained by segmenting a medical image.
형태학적 지표는 형태학적 값에 기초하여 획득될 수 있다. 형태학적 지표는 복수의 형태학적 값 예컨대, 제1 형태학적 값과 제2 형태학적 값에 기초하여 획득될 수 있다. 예를 들어, 형태학적 지표는 제1 형태학적 값과 제2 형태학적 값의 비율에 기초하여 획득될 수 있다. 이 경우, 제1 형태학적 값은 소뇌일 수 있고, 제2 형태학적 값은 두개골 내의 해부학적 영역일 수 있으며, 제1 형태학적 값과 제2 형태학적 값의 비율에 의해 획득된 형태학적 지표는 ICV 값을 의미할 수 있다. 형태학적 값은 인체의 해부학적 구조 중 적어도 일부 영역의 면적, 부피, 위치 또는 모양 등에 관한 정보일 수 있다.The morphological indicator may be obtained based on the morphological value. The morphological indicator may be obtained based on a plurality of morphological values, for example, a first morphological value and a second morphological value. For example, the morphological index may be obtained based on a ratio of the first morphological value to the second morphological value. In this case, the first morphological value may be the cerebellum, the second morphological value may be an anatomical region within the skull, and the morphological index obtained by the ratio of the first morphological value to the second morphological value is It may mean an ICV value. The morphological value may be information regarding an area, volume, location, or shape of at least a partial region of an anatomical structure of the human body.
품질 판단 대상 영역 획득 단계(S3753)는 세그멘테이션 정보에 기초하여 제3 이미지 품질 판단을 수행할 대상 영역을 특정하는 것을 포함할 수 있다. 여기서, 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 적어도 일부 영역을 포함할 수 있다. 또한, 대상 영역은 인체의 해부학적 구조 중 질병 판단 결과의 신뢰도에 영향을 미칠 수 있는 적어도 일부 영역을 포함할 수 있다.The step of obtaining the quality determination target region ( S3753 ) may include specifying a target region on which a third image quality determination is to be performed based on the segmentation information. Here, the target region may include at least a partial region of an anatomical structure of a human body obtained through medical image segmentation. In addition, the target region may include at least a partial region that may affect the reliability of the disease determination result among the anatomical structures of the human body.
예시적으로, 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 의료 이미지의 중심에서 가장 외측에 위치한 영역을 포함할 수 있다. 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 질병 진단의 근거가 되는 영역을 포함할 수 있다. 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 가장 좌측, 우측, 상측 또는 하측에 위치한 영역 중 어느 하나를 포함할 수 있다. 대상 영역은 뇌에 관한 의료 이미지를 기초로 이미지 품질 판단이 수행되는 경우, 대상 영역은 의료 이미지 세그멘테이션을 통하여 획득한 뇌의 두개골 내부 영역 중 적어도 일부를 포함할 수 있다.Exemplarily, the target region may include an outermost region from the center of the medical image among the anatomical structures of the human body acquired through medical image segmentation. The target region may include a region serving as a basis for disease diagnosis among anatomical structures of the human body acquired through medical image segmentation. The target region may include any one of the leftmost, right, upper, or lower regions of anatomical structures of the human body acquired through medical image segmentation. When the image quality is determined based on the medical image of the brain, the target region may include at least a part of an inner skull region of the brain obtained through medical image segmentation.
대상 영역의 형태학적 지표 획득 단계(S3755)는 특정된 대상 영역에 관한 형태학적 지표를 획득하는 단계를 포함할 수 있다. 예시적으로, 대상 영역의 형태학적 지표 획득 단계(S3755)는 이미지 획득 장치에 의해 확보된 복수의 의료 이미지들 중 적어도 일부에 기초하여 대상 영역의 형태학적 지표를 획득하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표 획득 단계(S3755)는 이미지 획득 장치에 의해 확보된 복수의 의료 이미지들 중 적어도 일부에 기초하여 대상 영역의 형태학적 값을 획득하는 것을 포함할 수 있다.The step of obtaining the morphological index of the target region ( S3755 ) may include acquiring the morphological index of the specified target region. For example, the step of obtaining the morphological indicator of the target region ( S3755 ) may include acquiring the morphological indicator of the target region based on at least a part of a plurality of medical images obtained by the image acquisition device. The step of obtaining the morphological index of the target region ( S3755 ) may include acquiring a morphological value of the target region based on at least a portion of a plurality of medical images obtained by the image acquisition device.
대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)는 대상 영역의 형태학적 지표 또는 형태학적 값을 미리 정해진 기준 값과 비교하는 것을 포함할 수 있다. 여기서, 미리 정해진 기준 값이란 다수의 일반인을 대상으로 대상 영역의 형태학적 값의 평균값을 의미할 수 있다. 미리 정해진 기준 값이란 대상 영역의 형태학적 지표를 기초로 질병 판단 시 일정 수준 이상의 신뢰도를 가지는 의료 정보의 획득이 가능한 때의 대상 영역과 관련된 지표 또는 측정 값을 의미할 수 있다.Comparing the morphological index of the target region with a reference value ( S3757 ) may include comparing the morphological index or morphological value of the target region with a predetermined reference value. Here, the predetermined reference value may mean an average value of the morphological values of the target region for a plurality of ordinary people. The predetermined reference value may mean an index or a measurement value related to the target region when medical information having a certain level of reliability or higher can be obtained when diagnosing a disease based on the morphological indicator of the target region.
도 27은 제3 이미지 품질 판단 프로세스의 일 실시예를 설명하기 위한 도면이다.27 is a diagram for explaining an embodiment of a third image quality determination process.
도 27의 (a) 내지 (c)를 참조하면, 일 시시예에 따른 제3 이미지 품질 판단 프로세스는 뇌에 관한 의료 이미지를 기초로 품질 판단을 수행하는 것을 포함할 수 있다. 일 실시예에 따르면, 제3 이미지 품질 판단 프로세스는 뇌에 관한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여, 세그멘테이션 정보가 정량적인 기준을 만족하는지에 관한 품질 판단을 수행하는 것을 포함할 수 있다.Referring to FIGS. 27A to 27C , the third image quality determination process according to an exemplary embodiment may include performing quality determination based on a medical image of the brain. According to an embodiment, the third image quality determination process may include performing a quality determination as to whether the segmentation information satisfies a quantitative criterion based on segmentation information obtained by anatomically segmenting a medical image of the brain. have.
이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌를 촬영한 MRI 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보를 수신하는 것을 포함할 수 있다. 품질 판단 대상 영역 획득 단계(S3753)는 해부학적으로 세그멘테이션된 뇌의 각 영역 중 품질 판단 대상 영역 예컨대, 해부학적으로 세그멘테이션된 뇌의 각 영역 중 소뇌에 대응하는 소정 영역을 특정하는 것을 포함할 수 있다.The image segmentation information acquisition step ( S3751 ) may include receiving segmentation information obtained by anatomically segmenting an MRI image of a brain. The quality determination target region acquisition step S3753 may include specifying a quality determination target region among each anatomically segmented brain regions, for example, a predetermined region corresponding to the cerebellum among each anatomically segmented brain regions. .
예시적으로, 품질 판단 대상 영역이 소뇌에 대응하는 소정 영역인 경우, 이미지 세그멘테이션 정보 획득 단계(S3751)에서 수신되는 세그멘테이션 정보는 뇌의 일 부위에 대응되는 소정 영역이 온전히 촬영되지 못한 MRI 이미지에 기초하여 획득된 정보일 수 있다. 여기서, 소뇌가 온전히 촬영되었는지에 관한 기준은 본 명세서의 ICV를 설명하는 파트에서 소뇌의 형태학적 값에 기초하여 두개골 내부 영역을 정의하는 기준과 동일한 기준으로 적용될 수 있다.Exemplarily, when the quality determination target region is a predetermined region corresponding to the cerebellum, the segmentation information received in the image segmentation information acquisition step S3751 is based on an MRI image in which a predetermined region corresponding to a part of the brain is not completely photographed. It may be information obtained through Here, the criterion regarding whether the cerebellum has been completely photographed may be applied as the same criterion as the criterion for defining the cranial inner region based on the morphological value of the cerebellum in the part describing the ICV of the present specification.
도 27의 (a)를 참조하면, 이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌의 각 영역 중 소뇌에 대응되는 소정 영역의 적어도 일부가 촬영되지 못한 제1 대상 영역 이미지에 기초하여 획득된 세그멘테이션 정보를 수신하는 것을 포함할 수 있다.Referring to (a) of FIG. 27 , in the image segmentation information acquisition step ( S3751 ), segmentation information obtained based on a first target region image in which at least a portion of a predetermined region corresponding to the cerebellum among each region of the brain is not photographed is obtained. may include receiving.
도 27의 (b)를 참조하면, 이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌의 각 영역 중 소뇌에 대응되는 소정 영역이 모두 촬영된 제2 대상 영역 이미지에 기초하여 획득된 세그멘테이션 정보를 수신하는 것을 포함할 수 있다.Referring to (b) of FIG. 27 , in the image segmentation information acquisition step (S3751), the segmentation information obtained based on the second target region image in which a predetermined region corresponding to the cerebellum among each region of the brain is all captured. may include
도 27의 (c)를 참조하면, 이미지 세그멘테이션 정보 획득 단계(S3751)는 뇌의 각 영역 중 소뇌에 대응되는 소정 영역이 모두 촬영되었으나 소뇌 외에 다른 해부학적 구조에 대응되는 영역 중 적어도 일부가 온전히 촬영되지 못한 제3 대상 영역 이미지에 기초하여 획득된 세그멘테이션 정보를 수신하는 것을 포함할 수 있다.Referring to (c) of FIG. 27 , in the image segmentation information acquisition step ( S3751 ), all predetermined regions corresponding to the cerebellum among each region of the brain are photographed, but at least some of the regions corresponding to anatomical structures other than the cerebellum are completely photographed. and receiving segmentation information obtained based on the failed third target region image.
대상 영역의 형태학적 지표 획득 단계(S3755)는 품질 판단 대상 영역의 형태학적 지표 예컨대, 품질 판단 대상 영역으로 특정된 소뇌의 부피 값을 획득하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표 획득 단계(S3755)는 대상 영역의 형태학적 지표를 기준 값과 비교하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표 획득 단계(S3755)는 대상 영역으로 특정된 소뇌의 부피 값을 미리 정해진 기준 값과 비교하여 정량적인 기준을 만족하는지 여부를 판단하는 것을 포함할 수 있다.The step of obtaining the morphological index of the target region ( S3755 ) may include acquiring the morphological index of the quality determination target region, for example, a value of the volume of the cerebellum specified as the quality determination target region. The step of obtaining the morphological indicator of the target region ( S3755 ) may include comparing the morphological indicator of the target region with a reference value. The step of obtaining the morphological index of the target region ( S3755 ) may include determining whether a quantitative criterion is satisfied by comparing the volume value of the cerebellum specified as the target region with a predetermined reference value.
예시적으로, 미리 정해진 기준 값은 도 27의 (b)와 같이 소뇌에 대응되는 소정 영역이 온전히 촬영된 제2 대상 영역 이미지에 기초하여 획득된 소뇌의 형태학적 지표를 의미할 수 있다. 미리 정해진 기준 값은 소뇌에 대응되는 소정 영역이 온전히 촬영된 복수의 이미지에 기초하여 획득된 소뇌의 형태학적 지표에 기초하여 획득될 수 있다. 미리 정해진 기준 값은 복수의 이미지에 기초하여 획득된 소뇌의 부피 값들의 평균값일 수 있다.Exemplarily, the predetermined reference value may mean a morphological index of the cerebellum obtained based on an image of a second target region in which a predetermined region corresponding to the cerebellum is completely captured as shown in FIG. 27B . The predetermined reference value may be obtained based on a morphological index of the cerebellum obtained based on a plurality of images in which a predetermined region corresponding to the cerebellum is completely captured. The predetermined reference value may be an average value of cerebellar volume values obtained based on a plurality of images.
이 경우, 대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)는 도 27의 (a)와 같이 소뇌에 대응되는 소정 영역의 적어도 일부가 촬영되지 못한 제1 대상 영역 이미지에 기초하여 획득된 소뇌의 형태학적 지표를 도 27의 (b)의 제2 대상 영역 이미지에 기초하여 획득된 소뇌의 형태학적 지표 즉, 미리 정해진 기준 값과 비교하여 정량적인 기준을 만족하는지 여부를 판단하는 것을 포함할 수 있다. 대상 영역의 형태학적 지표를 기준 값과 비교하는 단계(S3757)는 도 27의 (a)의 제1 대상 영역 이미지에 기초하여 획득된 소뇌의 부피 값이 미리 정해진 기준 값보다 일정 범위 이상의 차이를 보이는지에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다.In this case, the step of comparing the morphological index of the target region with a reference value (S3757) is obtained based on the image of the first target region in which at least a portion of a predetermined region corresponding to the cerebellum is not photographed as shown in FIG. 27(a). Comparing the morphological index of the cerebellum with the morphological index of the cerebellum obtained based on the image of the second target region of FIG. can do. The step of comparing the morphological index of the target region with the reference value (S3757) determines whether the volume value of the cerebellum obtained based on the first target region image of FIG. and performing an image quality determination based on .
도 27의 (c)를 참조하면, 대상 영역으로 특정된 소뇌에 대응되는 영역은 온전히 촬영되었으나 소뇌 외에 다른 해부학적 구조에 대응되는 영역 중 적어도 일부가 온전히 촬영되지 못한 제3 대상 영역 이미지의 경우, 제3 이미지 품질 판단 프로세스는 품질 판단 대상 영역을 다시 특정한 후 이미지 품질 판단을 수행하는 것을 포함할 수 있다.Referring to (c) of FIG. 27 , in the case of a third target region image in which the region corresponding to the cerebellum specified as the target region is completely photographed, but at least some of the regions corresponding to anatomical structures other than the cerebellum are not completely photographed, The third image quality determination process may include performing image quality determination after specifying the quality determination target region again.
도 27의 (c)를 참조하면, 소뇌에 대응되는 영역을 기준으로 하여 이미지 품질 판단을 수행하는 경우, 이미지 하방(Inferior)의 누락에 대하여는 판단이 가능하나, 이미지 상방(Superior)의 누락에 대하여는 판단이 어려울 수 있다. 이러한 문제점을 방지하기 위하여, 소뇌에 대응되는 영역 외에 다른 지표를 이미지 품질 판단의 지표로 활용할 수 있다. 예컨대, 두개골 내지 대뇌에 대응되는 영역의 부피(또는 ICV)를 품질 판단의 지표로 활용할 수 있다.Referring to (c) of Figure 27, when image quality is determined based on the region corresponding to the cerebellum, it is possible to determine the omission of the image inferior, but for the omission of the image superior It can be difficult to judge. In order to prevent such a problem, an index other than the region corresponding to the cerebellum may be used as an index for image quality determination. For example, the volume (or ICV) of a region corresponding to the skull or cerebrum may be used as an index of quality determination.
또는, 소뇌에 대응되는 영역에 기초하여 획득되는 형태학적 지표(예컨대, 소뇌의 ICV값)이 기준 값 이상인 경우, 소뇌를 제외한 다른 영역의 촬영이 불완전하게 이루어진 것으로 판단할 수도 있다.Alternatively, when a morphological index (eg, an ICV value of the cerebellum) obtained based on a region corresponding to the cerebellum is equal to or greater than a reference value, it may be determined that imaging of a region other than the cerebellum is incompletely performed.
일 실시예에 따른 제4 이미지 품질 판단부(3770)는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보와 이미지 획득 장치로부터 획득한 의료 이미지에서 추출한 아티팩트 정보 간의 관계에 기초하여 이미지 품질 판단을 수행할 수 있다. 예시적으로, 제4 이미지 품질 판단부(3770)는 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는지 여부를 판단할 수 있다.The fourth image
예를 들어, 이미지 분석 장치(3000)가 인체의 특정 부위를 이미지 촬영 장치를 통해 촬영한 후 이를 분석하는 경우, 인체의 각 영역을 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 질병을 판단할 수 있는데, 이때 질병 판단의 근거가 될 수 있는 세그멘테이션 정보에 아티팩트가 발생되어 있는 경우 해당 의료 이미지에 기초한 질병 판단의 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 반대로, 의료 이미지 내에 아티팩트가 발생되어 있더라도 아티팩트가 질병 판단의 근거가 될 수 있는 세그멘테이션 정보에 영향을 미치지 않는 경우 예컨대, 아티팩트가 세그멘테이션 정보와 중첩되지 않는 영역에 발생된 경우에는 해당 의료 이미지에 기초한 질병 판단의 결과는 일정 수준을 만족하는 신뢰도를 가질 수 있다. 따라서, 제4 이미지 품질 판단부(3770)는 의료 이미지 내에 아티팩트가 발생된 경우에도, 질병 판단의 근거가 될 수 있는 세그멘테이션 정보에 아티팩트가 영향을 미치는지를 고려하여 정상적으로 의료 이미지의 분석이 이루어질 수 있는지 여부를 판단하는 기능을 수행할 수 있다.For example, when the
보다 구체적인 예로, 이미지 분석 장치(3000)가 뇌에 관한 MRI 이미지를 분석하는 경우, 뇌의 각 영역을 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 질병을 판단할 수 있는데, 이때 질병 판단의 근거가 될 수 있는 세그멘테이션된 뇌의 해부학적 영역 중 적어도 일부에 아티팩트가 발생되어 있는 경우 해당 의료 이미지에 기초한 질병 판단의 결과는 일정 수준 이상의 신뢰도를 가질 수 없다. 이에 따라, 제4 이미지 품질 판단부(3770)는 MRI 이미지가 포함하고 있는 뇌의 각 영역의 해부학적 구조 중 적어도 일부에 아티팩트가 발생되었는지를 고려하여 정상적으로 의료 이미지의 분석이 이루어질 수 있는지 여부를 판단하는 기능을 수행할 수 있다.As a more specific example, when the
도 28은 제4 이미지 품질 판단 프로세스를 설명하기 위한 도면이다.28 is a diagram for explaining a fourth image quality determination process.
도 28을 참조하면, 제4 이미지 품질 판단 프로세스는 아티팩트 발생 위치 정보 획득 단계(S3771), 이미지 세그멘테이션 정보 획득 단계(S3773), 관심 영역(Region of interest) 획득 단계(S3775) 및 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)를 포함할 수 있다.Referring to FIG. 28 , the fourth image quality determination process includes an artifact occurrence location information acquisition step (S3771), an image segmentation information acquisition step (S3773), a region of interest acquisition step (S3775), and an artifact occurrence location and interest It may include the step of determining the relationship of the region (S3777).
아티팩트 발생 위치 정보 획득 단계(S3771)는 아티팩트 발생 위치 정보를 획득하는 것을 포함할 수 있다. 이때, 아티팩트 발생 위치 정보는 이미지 분석 장치(3000)로부터 획득될 수 있다. 아티팩트 발생 위치 정보는 아티팩트 발생 위치에 관한 아티팩트 영역 정보 예컨대, 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내는 히트맵 형태의 샐리언시 맵, 의료 이미지 내에서 아티팩트가 위치하는 영역을 표시하기 위한 바운딩 박스, 의료 이미지 내에서 아티팩트가 위치하는 좌표 정보 또는 픽셀 정보 등을 포함할 수 있으며, 이에 관한 설명은 제2 이미지 품질 판단부(3730)와 관련하여 상술한 바 있으므로 자세한 설명은 생략한다.The step of acquiring artifact occurrence location information ( S3771 ) may include acquiring artifact occurrence location information. In this case, the artifact generation location information may be obtained from the
이하에서 말하는 아티팩트는 노이즈 예컨대, 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 포함할 수 있다. 또한, 아티팩트는 이미지의 해상도, 이미지의 밝기 이 외에 부적절한 영상 샘플링의 결과로 만들어지는 다양한 화상의 결함을 포함할 수 있다.Artifacts referred to below may include noise, for example, various types of defects or conditions that affect acquisition of information based on an image. In addition, artifacts may include various image defects that are created as a result of improper image sampling in addition to image resolution and image brightness.
이미지 세그멘테이션 정보 획득 단계(S3773)는 이미지 세그멘테이션 모듈(3500)에 의해 세그멘테이션된 의료 이미지에 기초하여 획득된 세그멘테이션 정보를 획득하는 것을 포함할 수 있다. 여기서, 이미지 세그멘테이션 정보는 의료 이미지를 해부학적으로 세그멘테이션하여 획득한 정보를 포함할 수 있다. 이미지 세그멘테이션 정보는 뇌를 촬영한 MRI 이미지를 해부학적으로 세그멘테이션하여 획득한 세그멘테이션 정보를 포함할 수 있으며, 이에 관한 설명은 제3 이미지 품질 판단부(3750)과 관련하여 상술한 바 있으므로 자세한 설명은 생략한다.The image segmentation information obtaining step S3773 may include obtaining segmentation information obtained based on the medical image segmented by the
관심 영역 획득 단계(S3775)는 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 관심 영역과 관련된 정보를 획득하는 것을 포함할 수 있다. 관심 영역 획득 단계(S3775)는 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보 중에서 관심 영역과 관련된 정보를 획득하는 것을 포함할 수 있다. 관심 영역 획득 단계(S3775)는 의료 이미지를 세그멘테이션 하여 하나 이상의 영역을 획득하고, 관심 영역에 대응되는 영역을 획득할 수 있다. The ROI-obtaining operation S3775 may include acquiring information related to the ROI based on segmentation information obtained by anatomically segmenting the medical image. The ROI-obtaining step S3775 may include acquiring information related to the ROI from among segmentation information obtained by anatomically segmenting a medical image. In the ROI-obtaining operation S3775, one or more regions may be obtained by segmenting the medical image, and a region corresponding to the ROI may be obtained.
관심 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 적어도 일부 영역을 포함할 수 있다. 관심 영역은, 의료 이미지 상의 특정 해부학적(또는 기능적) 요소에 대응되는 영역으로 미리 정의될 수 있다. 관심 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 의료 이미지의 중심에서 가장 외측에 위치한 영역을 포함할 수 있다. 관심 영역은 의료 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 질병 진단의 근거가 되는 영역을 포함할 수 있다. 관심 영역은 뇌에 관한 MRI이미지를 기초로 이미지 품질 판단이 수행되는 경우, 의료 이미지 세그멘테이션을 통하여 획득한 뇌의 두개골 영역 및 두개골 내부 영역 중 적어도 일부를 포함할 수 있다. 관심 영역은 대상 질병의 진단과 관련된 요소일 수 있다.The region of interest may include at least a partial region of an anatomical structure of a human body obtained through medical image segmentation. The region of interest may be predefined as a region corresponding to a specific anatomical (or functional) element on the medical image. The region of interest may include an outermost region from the center of the medical image among the anatomical structures of the human body acquired through medical image segmentation. The region of interest may include a region serving as a basis for disease diagnosis among anatomical structures of the human body acquired through medical image segmentation. The region of interest may include at least a portion of a cranial region and a cranial inner region of the brain obtained through medical image segmentation when image quality is determined based on an MRI image of the brain. The region of interest may be a factor related to diagnosis of a target disease.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 아티팩트 발생 위치와 관심 영역의 관계를 판단하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 포함되어 있는 아티팩트의 정보와 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 관심 영역에 관한 정보를 기초로 품질 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 발생된 아티팩트와 관심 영역의 중첩 정도가 질병 판단 결과의 신뢰도에 일정 수준 이하로 영향을 미치는지에 기초하여 이미지 품질 판단을 수행할 수 있다.The step of determining the relationship between the artifact occurrence position and the region of interest ( S3777 ) may include determining the relationship between the artifact occurrence position and the region of interest. In the step of determining the relationship between the location of the artifact and the region of interest ( S3777 ), quality determination is performed based on information on the region of interest among the anatomical structures of the human body obtained by segmenting the information on the artifact included in the medical image and the medical image. may include In the step of determining the relationship between the location of the artifact and the region of interest (S3777), the image quality may be determined based on whether the degree of overlap between the artifact generated in the medical image and the region of interest affects the reliability of the disease determination result below a certain level. have.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 발생된 아티팩트 중 적어도 일부가 관심 영역 상에 위치하였는지, 또는, 의료 이미지 내에 발생된 아티팩트 중 적어도 일부가 관심 영역과 중첩되는지 여부에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.In the step of determining the relationship between the location of the artifact and the region of interest (S3777), it is determined whether at least some of the artifacts generated in the medical image are located on the region of interest, or whether at least some of the artifacts generated in the medical image overlap the region of interest. based on the quality judgment.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 아티팩트의 위치와 관련된 기준선(artifact boundary)과 관심 영역의 관계에 기초하여, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는 것을 포함할 수 있다. 여기서, 아티팩트 기준선(artifact boundary)는 아티팩트 영역의 외곽 라인일 수 있다. 아티팩트 기준선(artifact boundary)은, 아티팩트 유무를 판단하는 신경망 모델로부터 획득되고 아티팩트의 위치 추정과 관련된 샐리언시 맵(예컨대, CAM)에 기초하여 획득될 수 있다.The step of determining the relationship between the artifact occurrence position and the region of interest ( S3777 ) may include determining the relationship between the artifact occurrence position and the region of interest based on the relationship between the region of interest and a baseline (artifact boundary) related to the position of the artifact. Here, the artifact boundary may be an outer line of the artifact area. An artifact boundary may be obtained from a neural network model that determines whether an artifact is present and based on a saliency map (eg, CAM) associated with estimating the location of the artifact.
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 상에서 아티팩트 영역의 외곽 라인 및 관심 영역의 외곽 라인을 획득하고, 아티팩트 영역의 외곽 라인과 관심 영역의 외곽 라인이 의료 이미지 상에서 중첩되는지 여부에 기초하여, 아티팩트와 관심 영역의 중첩 여부를 판단하는 것을 포함할 수 있다. 이 경우, 이미지 분석 장치(3000)는 아티팩트 영역의 외곽 라인과 관심 영역의 외곽 라인이 의료 이미지 상에서 중첩되는 교차점이 2개 미만인 경우 의료 이미지의 품질이 정상이라고 판단할 수 있다. 또는, 이미지 분석 장치(3000)는 교차점이 2개 이상인 경우 상기 대상 의료 이미지의 품질이 비정상이라고 판단할 수 있다.In the step of determining the relationship between the location of the artifact and the region of interest ( S3777 ), an outer line of the artifact region and an outer line of the region of interest are obtained on the medical image, and whether the outer line of the artifact region and the outer line of the region of interest overlap on the medical image. based on , determining whether the artifact and the region of interest overlap. In this case, the
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 상에서, 아티팩트 영역 및 관심 영역에 모두 포함되는 공통 픽셀의 수를 획득하고, 공통 픽셀의 수를 이용하여 아티팩트와 상기 관심 영역의 중첩 정도를 판단하는 것을 포함할 수 있다. 이 경우, 이미지 분석 장치(3000)는 공통 픽셀수가 미리 정해진 기준 값을 초과하는 경우 의료 이미지의 품질이 비정상이라고 판단할 수 있다. 또는, 이미지 분석 장치(3000)는 공통 픽셀수가 미리 정해진 기준 값 이하인 경우 의료 이미지의 품질이 정상이라고 판단할 수 있다.In the step of determining the relationship between the location of the artifact and the region of interest ( S3777 ), the number of common pixels included in both the artifact region and the region of interest is obtained from the medical image, and the overlapping degree of the artifact and the region of interest by using the number of common pixels may include judging In this case, the
아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 관심영역 예컨대, 두개골 영역 또는 두개골 내부 영역 중 적어도 일부에 아티팩트가 발생되었는지 여부에 관한 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 관심 영역 예컨대, 두개골 영역 및 두개골 내부 영역 중 적어도 일부에 아티팩트가 중첩되었는지 여부에 관한 판단을 수행하는 것을 포함할 수 있다. The step of determining the relationship between the location of the artifact and the region of interest ( S3777 ) may include determining whether an artifact has occurred in at least a portion of the region of interest, for example, the skull region or the skull inner region. The step of determining the relationship between the location of the artifact and the region of interest ( S3777 ) may include determining whether the artifact is overlapped in at least a portion of the region of interest, for example, the skull region and the skull inner region.
도 29는 아티팩트가 발생한 이미지를 예시하기 위한 도면이다. 이하에서는, 도 28 및 29를 참조하여, 아티팩트의 발생 범위에 따른, 이미지 품질 판단 프로세스에 대하여 설명한다.29 is a diagram illustrating an image in which an artifact has occurred. Hereinafter, an image quality determination process according to the occurrence range of the artifact will be described with reference to FIGS. 28 and 29 .
도 29의 (a)를 참조하면, 두개골 영역 및 두개골의 내부 영역과 중첩되는 아티팩트를 포함하는 이미지가 획득될 수 있다. 도 29의 (b)를 참조하면, 두개골 영역의 일부와 중첩되는 아티팩트를 포함하는 이미지가 획득될 수 있다. 도 29의 (a) 및 (b)를 참조하면, 관심 영역은, 두개골 내부 영역 또는 두개골에 대응되는 영역일 수 있다.Referring to FIG. 29A , an image including artifacts overlapping the skull region and the internal region of the skull may be acquired. Referring to FIG. 29B , an image including an artifact overlapping a portion of the skull region may be acquired. Referring to FIGS. 29A and 29B , the region of interest may be an internal region of the skull or a region corresponding to the skull.
도 29의(a)를 참조하면, 대상 의료 이미지가 두개골 영역 및 두개골의 내부 영역과 중첩되는 아티팩트를 포함하고, 관심 영역이 두개골 내부 영역 또는 두개골 영역인 경우, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는(S3777) 것은, 관심 영역과 아티팩트 발생 위치가 중첩되는 것으로 판단하는 것을 포함할 수 있다.Referring to FIG. 29(a), when the target medical image includes the skull region and the artifact overlapping the internal region of the skull, and the region of interest is the internal region of the skull or the skull region, the relationship between the location of the artifact and the region of interest Determining ( S3777 ) may include determining that the region of interest and the artifact occurrence location overlap.
도 29(b)를 참조하면, 대상 의료 이미지가 두개골 영역과 중첩되는 아티팩트를 포함하고, 관심 영역이 두개골 내부 영역인 경우, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는(S3777) 것은, 관심 영역과 아티팩트 발생 위치가 중첩되지 않는 것으로 판단하는 것을 포함할 수 있다. Referring to FIG. 29(b) , when the target medical image includes an artifact overlapping the skull region and the region of interest is the region inside the skull, determining the relationship between the location of the artifact and the region of interest (S3777) is the region of interest. and determining that the artifact occurrence location does not overlap.
도 29(b)를 참조하면, 대상 의료 이미지가 두개골 영역과 중첩되는 아티팩트를 포함하고, 관심 영역이 두개골 영역인 경우, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는(S3777) 것은, 관심 영역과 아티팩트 발생 위치가 중첩되는 것으로 판단하는 것을 포함할 수 있다.Referring to FIG. 29(b) , when the target medical image includes an artifact that overlaps with the skull region, and the region of interest is the skull region, determining the relationship between the location of the artifact and the region of interest (S3777) includes the region of interest and the region of interest. It may include determining that the artifact occurrence positions overlap.
도 29에서 예시하는 아티팩트는 아티팩트 영역으로 판단된 영역을 의미할 수 있다. 아티팩트 영역으로 판단된 영역은, 아티팩트 영역을 획득하는 세그멘테이션 신경망 모델 또는 아티팩트 정보를 획득하는 분류기 모델을 통하여 획득될 수 있으며, 관련 내용은 이하에서 보다 자세히 설명한다.The artifact illustrated in FIG. 29 may mean an area determined as an artifact area. The region determined as the artifact region may be acquired through a segmentation neural network model acquiring the artifact region or a classifier model acquiring artifact information, and related content will be described in more detail below.
제4 이미지 품질 판단은 아티팩트와 관련된 복수의 기준 영역을 획득하고, 각 기준 영역과 관심 영역의 중첩에 기초하여 이미지의 품질을 판단하는 것을 포함할 수 있다.The fourth image quality determination may include acquiring a plurality of reference regions related to the artifact, and determining the quality of the image based on the overlap of each reference region and the ROI.
일 실시예에 따른 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 아티팩트의 위치와 관련된 아티팩트 정보와, 관심 영역이 분포하는 영역에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률에 관한 정보와 관심 영역 정보에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 의료 이미지 내에 발생된 아티팩트와 관심 영역의 중첩 정도가 미리 정해진 기준 값을 초과하는지를 판단하는 것을 포함할 수 있다.The step of determining the relationship between the artifact occurrence position and the region of interest ( S3777 ) according to an embodiment may include determining image quality based on artifact information related to the position of the artifact and the region in which the region of interest is distributed. The step of determining the relationship between the location of the artifact and the region of interest ( S3777 ) may include determining image quality based on information about a probability that an artifact is located in a specific region in the medical image and information on the region of interest. The step of determining the relationship between the location of the artifact and the region of interest ( S3777 ) may include determining whether an overlapping degree between the artifact generated in the medical image and the region of interest exceeds a predetermined reference value.
의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률에 관한 정보는 아티팩트 영역 정보를 포함할 수 있다. 여기서, 아티팩트 영역 정보는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 순서로 제1 아티팩트 영역 내지 제n 아티팩트 영역을 포함할 수 있다. 아티팩트 영역은 제2 이미지 품질 판단 프로세스에서 상술한 바와 같이 제1 영역 및 상기 제1 영역 내에 위치되는 제2 영역을 포함할 수 있고, 제1 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역일 수 있으며, 제2 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역일 수 있다.The information about the probability that the artifact is located in a specific region in the medical image may include artifact region information. Here, the artifact area information may include a first artifact area to an nth artifact area in an order of which artifacts are most likely to be located in the medical image. The artifact area may include a first area and a second area positioned within the first area as described above in the second image quality determination process, wherein the first area has a first reference value in relation to the target artifact on the feature map. It may be an area equal to or greater than the first reference value, and the second area may be an area having a relevance to a target artifact on the feature map greater than or equal to a second reference value.
도 30는 다른 실시예에 따른 제4 이미지 품질 판단 프로세스에서 아티팩트가 관심 영역과 중첩되어 발생되었는지 판단하는 것을 설명하기 위한 도면이다.30 is a diagram for explaining determining whether an artifact is generated to overlap an ROI in a fourth image quality determination process according to another exemplary embodiment;
도 30의 (b)를 참조하면, 아티팩트 영역은 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 순서로 제1 아티팩트(AR1) 영역, 제2 아티팩트 영역(AR2), 제3 아티팩트 영역(AR3) 또는 제4 아티팩트 영역(AR4)을 포함할 수 있다. 제1 아티팩트 영역(AR1) 내지 제4 아티팩트 영역(AR4)은 이미지 내 아티팩트가 위치하는 영역의 적어도 일부를 포함할 수 있다. 아티팩트 영역은 아티팩트와 높은 연관성을 보이는 순서대로 제1 아티팩트 영역(AR1), 제2 아티팩트 영역(AR2), 제3 아티팩트 영역(AR3) 및 제4 아티팩트 영역(AR4)일 수 있다.Referring to (b) of FIG. 30 , the artifact area is a first artifact area (AR1), a second artifact area (AR2), a third artifact area (AR3), or A fourth artifact area AR4 may be included. The first artifact area AR1 to the fourth artifact area AR4 may include at least a portion of an area where the artifact is located in the image. The artifact regions may be the first artifact region AR1 , the second artifact region AR2 , the third artifact region AR3 , and the fourth artifact region AR4 in the order of showing a high correlation with the artifact.
또는, 아티팩트 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역(예를 들어, 제3 아티팩트 영역(AR3) 및 제4 아티팩트 영역(AR4))을 포함할 수 있다. 아티팩트 영역은 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역(예를 들어, 제1 아티팩트 영역(AR1) 및 제2 아티팩트 영역(AR2))을 포함할 수 있다.Alternatively, the artifact area may include an area (eg, the third artifact area AR3 and the fourth artifact area AR4) having a relevance to the target artifact equal to or greater than the first reference value on the feature map. The artifact area may include an area (eg, the first artifact area AR1 and the second artifact area AR2) having a relevance to the target artifact on the feature map equal to or greater than a second reference value greater than the first reference value.
도 30의 (b)를 참조하면, 아티팩트 영역 및 관심 영역에 모두 포함되는 공통 픽셀의 수를 이용하여 아티팩트와 관심 영역의 중첩 정도를 판단할 수 있다. 예를 들어, 제3 아티팩트 영역(A3) 및 제4 아티팩트 영역(A4)과 관심 영역에 모두 포함되는 공통 픽셀의 수가 미리 정해진 기준 값을 초과하는 경우 이미지 분석 장치(3000)는 의료 이미지의 품질이 비정상이라고 판단할 수 있다. 다른 예로, 제1 아티팩트 영역(A1) 및 제2 아티팩트 영역(A2)과 관심 영역에 모두 포함되는 공통 픽셀의 수가 미리 정해진 기준 값을 이하인 경우 이미지 분석 장치(3000)는 의료 이미지의 품질이 정상이라고 판단할 수 있다.Referring to FIG. 30B , the overlapping degree of the artifact and the ROI may be determined using the number of common pixels included in both the artifact region and the ROI. For example, when the number of common pixels included in both the third artifact area A3 and the fourth artifact area A4 and the area of interest exceeds a predetermined reference value, the
도 30의 (c)를 참조하면, 아티팩트 영역의 외곽 라인이 아티팩트 기준선(artifact boundary)으로 이용될 수 있다. 아티팩트 기준선(artifact boundary)은, 도 30의 (a)와 같은 아티팩트 영역과 관련된 특징맵에 기초하여 결정될 수 있다. 아티팩트 기준선(artifact boundary)은, 도 30의 (b)와 같은 제1 아티팩트 영역(AR1) 내지 제4 아티팩트 영역(AR4) 중 어느 하나의 바운더리로 결정될 수 있다. 아티팩트 기준선(artifact boundary)은 제1 아티팩트 영역(AR1) 내지 제4 아티팩트 영역(AR4)의 바운더리의 평균으로 결정될 수 있다.Referring to FIG. 30C , the outer line of the artifact area may be used as an artifact boundary. An artifact boundary may be determined based on a feature map related to an artifact area as shown in FIG. 30A . The artifact boundary may be determined as a boundary of any one of the first artifact areas AR1 to AR4 as shown in FIG. 30B . An artifact boundary may be determined as an average of boundaries of the first artifact area AR1 to the fourth artifact area AR4 .
아티팩트 기준선(artifact boundary)은 제1 영역(예컨대, 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값 이상인 영역)의 외곽 라인일 수 있다. 아티팩트 기준선(artifact boundary)은 제2 영역(예컨대, 특징맵 상에서 대상 아티팩트와의 관련성이 제1 기준값보다 큰 제2 기준값 이상인 영역)의 외곽 라인일 수 있다.The artifact boundary may be an outer line of the first area (eg, an area having a relevance to a target artifact on the feature map that is equal to or greater than the first reference value). The artifact boundary may be an outer line of the second region (eg, a region having a relevance to a target artifact on the feature map that is greater than or equal to a second reference value greater than the first reference value).
아티팩트 기준선(artifact boundary)과 관심 영역의 관계에 기초하여, 아티팩트 발생 위치와 관심 영역의 관계를 판단하는 것은, 아티팩트 기준선(artifact boundary)과 관심 영역의 중첩 여부에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다. Determining the relationship between the location of the artifact and the region of interest based on the relationship between the artifact boundary and the region of interest includes performing a quality judgment based on whether the artifact boundary and the region of interest overlap or not can do.
도 30의 (c)와 같이 아티팩트 기준선(artifact boundary)과 관심 영역의 외곽 라인이 의료 이미지 상에서 중첩되는 교차점이 2개 이상인 경우, 이미지 분석 장치(3000)는 대상 의료 이미지의 품질이 비정상이라고 판단할 수 있다.As shown in (c) of FIG. 30 , when there are two or more intersection points where the artifact boundary and the outer line of the ROI overlap on the medical image, the
대상 이미지 내에 복수의 아티팩트가 존재하는 경우, 아티팩트 발생 위치와 관심 영역의 관계 판단 단계(S3777)는 복수의 아티팩트 중 어느 하나와 관심 영역의 중첩 여부 또는 중첩 정도에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.If there are a plurality of artifacts in the target image, the step of determining the relationship between the location of the artifact and the region of interest ( S3777 ) includes performing a quality determination based on whether any one of the plurality of artifacts and the region of interest overlap or the degree of overlap. can do.
이미지 출력 장치는 이미지 품질 관련 정보 출력 모듈(3900)을 포함할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 분석 장치(3000)의 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과를 출력할 수 있다. 또한, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 분석 장치(3000)의 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과에 기초하여 생성된 정보를 출력할 수 있다.The image output device may include an image quality related
이미지 출력 장치 또는 이미지 분석 장치는, 선택창 출력에 응답하여, 추가적인 동작을 지시하는 사용자 입력을 획득할 수 있다.The image output device or the image analysis device may obtain a user input instructing an additional operation in response to the selection window output.
도 31은 일 실시예에 따른 이미지 품질 관련 정보 출력 모듈을 설명하기 위한 도면이다.31 is a diagram for describing an image quality related information output module according to an exemplary embodiment.
도 31을 참조하면, 이미지 품질 관련 정보 출력 모듈(3900)은 에러 정보 출력부(3910) 또는 선택창 출력부(3930) 중 적어도 어느 하나를 포함할 수 있다. 이 경우, 에러 정보 출력부(3910)는 이미지 품질 판단 결과를 기초로 획득한 정보에 관한 에러 정보를 출력할 수 있다. 선택창 출력부(3930)는 이미지 품질 판단 결과를 기초로 획득한 정보에 관한 선택창을 출력할 수 있다. Referring to FIG. 31 , the image quality related
에러 정보 출력부(3910)와 선택창 출력부(3930)는 각각 독립된 이미지 품질 판단 결과에 기초하여 결정된 정보를 출력할 수 있다. 예컨대, 에러 정보 출력부(3910)는 제1 품질 판단 결과에 기초하여 결정된 에러 정보를 출력하고, 선택창 출력부(3930)는 제2 품질 판단 결과에 기초하여 결정된 선택창을 출력할 수 있다.The error
또는, 에러 정보 출력부(3910)와 선택창 출력부(3930)는 동일한 이미지 품질 판단 결과에 기초하여 결정된 정보를 출력할 수 있다. 에러 정보 출력부(3910)는 제1 품질 판단 결과에 기초하여 결정된 에러 정보를 출력하고, 선택창 출력부(3930)는 제1 품질 판단 결과에 기초하여 결정된 선택창을 출력할 수 있다.Alternatively, the error
도 31에서는, 에러 정보 출력부(3910)와 선택창 출력부(3930)가 구별되는 것으로 예시하였으나, 이는 예시에 불과하며, 에러 정보 출력부(3910)와 선택창 출력부(3930)는 하나의 물리적 또는 논리적 구성으로 마련될 수 있다. 예컨대, 이미지 품질 관련 정보 출력 모듈(3900)은 품질 판단 결과에 기초하여 생성된 에러 정보 및 에러 정보에 대응되는 선택창을 출력할 수도 있다.In FIG. 31 , the error
선택창 출력부(3930)는 품질 판단 결과에 기초하여, 추가적으로 수행 가능한 동작과 관련한 사용자 지시를 획득하기 위한 선택창을 출력할 수 있다.The selection
이미지 품질 관련 정보 출력 모듈(3900)은 에러 정보 또는 선택창 중 적어도 어느 하나를 텍스트 또는 이미지 형식으로 출력할 수 있다.The image quality related
이미지 품질 관련 정보 출력 모듈(3900)은 에러 정보를 출력할 수 있다. 이 경우, 에러 정보는 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과를 기초로 획득된 정보를 포함할 수 있다. 또한, 에러 정보는 제1 이미지 품질 판단 결과와 관련된 제1 에러 정보, 제2 이미지 품질 판단 결과와 관련된 제2 에러 정보, 제3 이미지 품질 판단 결과와 관련된 제3 에러 정보 및 제4 이미지 품질 판단 결과와 관련된 제4 에러 정보 중 적어도 어느 하나를 포함할 수 있다.The image quality related
이미지 품질 관련 정보 출력 모듈(3900)은 제1 에러 정보 화면을 출력할 수 있다. 제1 에러 정보는 제1 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. 제1 에러 정보는 의료 이미지의 메타데이터 정보에 기초하여 획득한 정보를 포함할 수 있다.The image quality related
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지의 파일 구조 정보 예컨대, 의료 이미지의 파일 형식, 의료 이미지의 포맷 또는 파일의 크기에 이상이 있는 경우 제1 에러 정보 화면을 출력할 수 있다. 이 경우, 제1 에러 정보 화면은 의료 이미지의 파일 구조 정보에 이상이 있다는 제1 알림창 또는 의료 이미지의 파일 구조에 관한 정보를 포함할 수 있다.According to an embodiment, the image quality-related
다른 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지에 환자 정보 예컨대, 환자의 성명, 나이 등의 인적 사항과 관련된 정보, 의료 이미지를 촬영한 시점과 관련된 정보 또는 환자의 건강 상태에 관한 정보 등이 누락되어 있는 경우 제1 에러 정보 화면을 출력할 수 있다. 이 경우, 제1 에러 정보는 의료 이미지에 환자 정보가 누락되어 있다는 제1 알림창 또는 의료 이미지에 누락 또는 포함되어 있는 환자 정보를 포함할 수 있다.According to another embodiment, the image quality-related
도 32는 제1 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.32 is a diagram for exemplarily explaining a first error information screen.
도 32의 (a)를 참조하면, 제1 에러 정보 화면은 제1 이미지 품질 판단에 기초한 의료 이미지(MI), 의료 이미지의 파일 구조 정보(DI) 또는 의료 이미지에 입력되어 있는 환자 정보(PI) 중 적어도 어느 하나를 포함할 수 있다.Referring to (a) of FIG. 32 , the first error information screen is a medical image (MI) based on the first image quality determination, file structure information (DI) of the medical image, or patient information (PI) input to the medical image. may include at least one of
이 경우, 의료 이미지(MI)는 제1 이미지 품질 판단에 사용된 의료 이미지가 표시된 이미지일 수 있다. 의료 이미지의 파일 구조 정보(DI)는 의료 이미지의 형식에 관한 제1 파일 구조 정보, 의료 이미지의 포맷에 관한 제2 파일 구조 정보 또는 의료 이미지의 크기에 관한 제3 파일 구조 정보를 포함할 수 있다. 이 경우, 도면에는 도시되지 않았으나 제1 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 파일 구조 정보(DI)에 관한 보다 상세한 내용(예를 들어, 환자의 생년월일, 환자의 주소, 촬영 시점, 촬영 장소, 촬영 장치 등)을 추가적으로 표시할 수 있다. In this case, the medical image MI may be an image in which the medical image used to determine the first image quality is displayed. The file structure information DI of the medical image may include first file structure information regarding the format of the medical image, second file structure information regarding the format of the medical image, or third file structure information regarding the size of the medical image. . In this case, although not shown in the drawings, the first error information screen includes a detailed information object, and the output screen includes more detailed information about the medical image (MI) or file structure information (DI) according to the user's selection of the detailed information object. Content (eg, the patient's date of birth, the patient's address, the photographing time, the photographing location, the photographing device, etc.) may be additionally displayed.
도 32의 (b)를 참조하면, 제1 에러 정보 화면은 제1 이미지 품질 판단 결과 의료 이미지가 비정상적이라는 제1 정보를 포함하는 제1 알림창(CO)을 포함할 수 있다. 예시적으로, 제1 알림창(CO)은 의료 이미지의 파일 구조에 이상이 있거나 의료 이미지에 환자 정보가 누락되었다는 에러 코드를 포함할 수 있다. 이 경우, 제1 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제1 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.Referring to FIG. 32B , the first error information screen may include a first notification window CO including first information indicating that the medical image is abnormal as a result of the first image quality determination. For example, the first notification window CO may include an error code indicating that there is an error in the file structure of the medical image or that patient information is missing from the medical image. In this case, the first error information screen includes a detailed information object, and the output screen includes detailed information about the first information according to a user selection for the detailed information object (eg, a description of an error code, generation of an error message) Causes, manuals that can respond to error messages, etc.) can be additionally displayed.
이미지 품질 관련 정보 출력 모듈(3900)은 제2 에러 정보 화면을 출력할 수 있다. 제2 에러 정보는 제2 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. 제2 에러 정보는 노이즈 정보에 기초하여 획득한 정보를 포함할 수 있다. 제2 에러 정보는 이미지에 기초한 정보 획득에 영향을 미치는 다양한 종류의 결함 내지 상태를 기초로 획득한 정보를 포함할 수 있다.The image quality related
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지에 노이즈가 포함되어 있는 경우 제2 에러 정보 화면을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 제2 에러 정보를 텍스트 또는 이미지 형식으로 출력할 수 있다.According to an embodiment, the image quality related
예시적으로, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지에 아티팩트가 포함되어 있는 경우 제2 에러 정보 화면을 출력할 수 있다. 제2 에러 정보 화면은 의료 이미지 내에 아티팩트가 포함되어 있음을 알려주는 에러 메시지를 포함할 수 있다. 또한, 제2 에러 정보는 의료 이미지 내에 아티팩트가 발생된 위치에 관한 정보, 아티팩트의 발생 정도에 관한 정보, 아티팩트의 발생 범위에 관한 정보 또는 아티팩트의 종류에 관한 정보 중 어느 하나를 포함할 수 있다.For example, the image quality related
제2 에러 정보 화면은 텍스트 또는 이미지를 포함할 수 있다. 예를 들어, 제2 에러 정보 화면은 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내기 위한 표시, 예컨대 히트맵 형태의 이미지를 포함할 수 있다. 다른 예로, 제2 에러 정보 화면은 의료 이미지 내에서 아티팩트의 위치를 나타내는 바운딩 박스를 나타내는 이미지를 포함할 수 있다. 또 다른 예로, 제2 에러 정보 화면은 의료 이미지 내의 해부학적 세그멘테이션 정보를 나타내기 위한 이미지를 포함할 수 있다.The second error information screen may include text or an image. For example, the second error information screen may include a display, for example, an image in the form of a heat map, for indicating an area where the artifact is likely to be located in the medical image. As another example, the second error information screen may include an image indicating a bounding box indicating the location of the artifact in the medical image. As another example, the second error information screen may include an image for indicating anatomical segmentation information in the medical image.
도 33 및 도 34는 제2 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.33 and 34 are diagrams for exemplarily explaining the second error information screen.
도 33의 (a)를 참조하면, 제2 에러 정보 화면은 제2 이미지 품질 판단과 관련 있는 의료 이미지(MI) 표시 영역을 포함할 수 있다. 제2 에러 정보 화면은 아티팩트 정보(AF) 출력 영역을 포함할 수 있다.Referring to FIG. 33A , the second error information screen may include a medical image (MI) display area related to the second image quality determination. The second error information screen may include an artifact information (AF) output area.
의료 이미지(MI)는 제2 이미지 품질 판단에 기초하여 의료 이미지 내에 아티팩트가 위치할 가능성이 높은 영역이 강조된 이미지일 수 있다. 의료 이미지(MI)는 아티팩트와 관련이 높은 것으로 판단된 영역이 히트맵 형태로 강조된 이미지일 수 있다. 의료 이미지(MI)는, 사용자 조작에 따라, 아티팩트의 종류, 발생 범위, 형태 등을 보다 자세히 확인할 수 있도록 확대 또는 축소될 수 있다. The medical image MI may be an image in which an area in which an artifact is likely to be located in the medical image is emphasized based on the second image quality determination. The medical image MI may be an image in which a region determined to be highly related to an artifact is emphasized in the form of a heat map. The medical image MI may be enlarged or reduced so that the type, occurrence range, shape, and the like of the artifact may be checked in more detail according to a user manipulation.
아티팩트 정보(AF)는 아티팩트의 종류에 관한 정보, 아티팩트가 위치할 가능성이 높은 영역에 관한 정보 또는 아티팩트의 발생 정도에 관한 정보 중 적어도 어느 하나를 포함할 수 있다. 제2 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 아티팩트 정보(AF)에 관한 보다 상세한 내용(예를 들어, 이미지 내 특정 영역에 아티팩트가 위치할 확률에 관한 정보, 아티팩트의 발생 범위에 관한 히트맵 정보 또는 바운더리 정보 등)을 추가적으로 표시할 수 있다.The artifact information AF may include at least one of information on the type of artifact, information on an area where the artifact is likely to be located, and information on the degree of occurrence of the artifact. The second error information screen includes a detailed information object, and the output screen includes more detailed information about the medical image (MI) or the artifact information (AF) according to the user selection for the detailed information object (eg, specific information in the image). information about the probability that the artifact is located in the region, heat map information about the occurrence range of the artifact, boundary information, etc.) may be additionally displayed.
도 33의 (b)를 참조하면, 제2 에러 정보 화면은 의료 이미지 내에 포함된 아티팩트에 관한 제2 정보를 포함하는 제2 알림창(CO)를 포함할 수 있다. 예시적으로, 제2 알림창(CO)은 의료 이미지 내에 아티팩트가 발생되었다는 에러 코드가 표시된 메시지를 포함할 수 있다. 이 경우, 제2 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제2 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.Referring to FIG. 33B , the second error information screen may include a second notification window CO including second information on an artifact included in the medical image. For example, the second notification window CO may include a message in which an error code indicating that an artifact has occurred in the medical image is displayed. In this case, the second error information screen includes a detailed information object, and the output screen includes detailed information about the second information according to a user selection for the detailed information object (eg, a description of an error code, generation of an error message) Causes, manuals that can respond to error messages, etc.) can be additionally displayed.
도 34를 참조하면, 아티팩트 정보(AF)는 아티팩트의 종류에 관한 정보를 포함하는 제1 아티팩트 정보(AF1), 아티팩트가 위치할 가능성이 높은 영역에 관한 정보를 포함하는 제2 아티팩트 정보(AF2) 또는 아티팩트의 발생 정도에 관한 정보를 포함하는 제3 아티팩트 정보(AF3)를 포함할 수 있다.Referring to FIG. 34 , the artifact information AF includes first artifact information AF1 including information on the type of artifact, and second artifact information AF2 including information on an area where the artifact is likely to be located. Alternatively, it may include the third artifact information AF3 including information on the degree of occurrence of the artifact.
제1 아티팩트 정보(AF1)는 아티팩트의 종류에 관한 정보, 아티팩트가 발생된 이미지의 보정 가부에 관한 정보 등을 포함할 수 있다. 이 경우, 아티팩트가 발생된 이미지의 보정 가부에 관한 정보는 아티팩트의 종류, 발생 위치, 발생 범위 또는 발생 정도 중 어느 하나에 기초하여 획득된 정보를 포함할 수 있다.The first artifact information AF1 may include information on the type of artifact, information on whether to correct the image in which the artifact is generated, and the like. In this case, the information on whether to correct the image in which the artifact is generated may include information obtained based on any one of the type of the artifact, the location of the occurrence, the range of occurrence, and the degree of occurrence of the artifact.
제2 아티팩트 정보(AF2)는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역에 관한 정보, 의료 이미지 내의 해부학적 구조에 대응되는 영역 중 분석 가능 영역 등에 관한 정보를 포함할 수 있다. 이 경우, 분석 가능 영역에 관한 정보는 해부학적 세그멘테이션 정보와 아티팩트 발생 위치 정보에 기초하여 획득될 수 있다. 예시적으로, 진단 영역에 관한 정보는 의료 이미지 내의 해부학적 구조에 대응되는 영역 중 아티팩트와 중첩되지 않는 영역에 관한 정보 또는 의료 이미지 내의 해부학적 구조에 대응되는 영역 중 아티팩트와 중첩 정도가 낮은 영역에 관한 정보 등을 포함할 수 있다. 이때, 분석 가능 영역에 따라 진단 가능 질병은 달라질 수 있다. The second artifact information AF2 may include information on an area where an artifact is likely to be located in the medical image, and information on an analysisable area among regions corresponding to an anatomical structure in the medical image. In this case, the information on the analyzeable region may be obtained based on the anatomical segmentation information and the artifact occurrence location information. Illustratively, the information on the diagnosis region is information about a region that does not overlap an artifact among regions corresponding to the anatomical structure in the medical image or a region with a low degree of overlap with the artifact among regions corresponding to the anatomical structure in the medical image. information may be included. In this case, the diagnosable disease may vary according to the analysis possible region.
제3 아티팩트 정보(AF3)은 아티팩트의 발생 정도, 레벨, 범위 등에 관한 정보를 포함할 수 있다. 이 경우, 이미지 분석 장치는 제3 아티팩트 정보(AF3)에 기초하여 이미지 분석 진행 가부에 관한 판단을 수행할 수 있다. 예를 들어, 이미지 분석 장치는 의료 이미지 내에 아티팩트가 발생된 경우에도 제3 아티팩트 정보(AF3)에 기초하여 아티팩트의 발생 정도가 미리 정해진 기준 값보다 낮다고 판단되는 경우 이미지 분석 진행을 수행할 수 있다고 판단할 수 있다.The third artifact information AF3 may include information about the occurrence degree, level, range, and the like of the artifact. In this case, the image analysis apparatus may determine whether to proceed with image analysis based on the third artifact information AF3 . For example, even when an artifact is generated in the medical image, the image analysis apparatus determines that the image analysis can be performed when it is determined that the degree of occurrence of the artifact is lower than a predetermined reference value based on the third artifact information AF3 can do.
이미지 품질 관련 정보 출력 모듈(3900)은 제3 에러 정보 화면을 출력할 수 있다. 제3 에러 정보는 제3 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. 또한, 제3 에러 정보는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초로 획득한 정보를 포함할 수 있다.The image quality related
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 획득 장치로부터 획득한 의료 이미지가 포함하고 있는 해부학적 구조 중 적어도 일부가 미리 정해진 정량적인 기준을 만족하지 않는 경우 제3 에러 정보 화면을 출력할 수 있다. 예를 들어, 이미지 품질 관련 정보 출력 모듈(3900)은 의료 이미지 내에 포함되고 인체의 일 부위에 대응되는 소정 영역과 관련된 값이 기준을 만족하지 않는 경우 제3 에러 정보 화면을 출력할 수 있다. 보다 구체적인 예로, 이미지 품질 관련 정보 출력 모듈(3900)은 뇌에 관한 MRI 이미지에 포함되어 있는 뇌의 일 부위에 대응되는 소정 영역의 부피 값이 미리 정해진 기준 값을 만족하지 않는 경우 제3 에러 정보 화면을 출력할 수 있다. 또한, 이미지 품질 관련 정보 출력 모듈(3900)은 제3 에러 정보 화면을 텍스트 또는 이미지 형식으로 출력할 수 있다.According to an embodiment, the image quality-related
제3 에러 정보는 의료 이미지 내의 해부학적 구조 중 적어도 일부에 이상이 있다는 에러 메시지 또는 이상이 있는 해부학적 구조에 관한 정보를 포함할 수 있다. 보다 구체적인 예로, 제3 에러 정보는 이미지 세그멘테이션 결과를 기초로 품질 판단을 수행할 대상 영역에 관련된 정보를 포함할 수 있다. 제3 에러 정보는 이미지 세그멘테이션을 통하여 획득한 인체의 해부학적 구조 중 질병 판단 결과의 신뢰도에 영향을 미칠 수 있는 적어도 일부 영역에 관련된 정보를 포함할 수 있다.The third error information may include an error message indicating that there is an abnormality in at least a portion of anatomical structures in the medical image or information regarding an anatomical structure having an abnormality. As a more specific example, the third error information may include information related to a target region for which quality determination is to be performed based on the image segmentation result. The third error information may include information related to at least a partial region that may affect the reliability of the disease determination result among the anatomical structures of the human body acquired through image segmentation.
제3 에러 정보는 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 지표 또는 형태학적 값 예컨대, 면적, 부피, 위치 또는 모양 등에 관한 정보를 포함할 수 있다.The third error information may include information about a morphological index or morphological value of at least a partial region of an anatomical structure of a human body obtained by segmenting a medical image, for example, an area, a volume, a location, or a shape.
제3 에러 정보는 대상 영역의 형태학적 지표 또는 형태학적 값과 미리 정해진 기준 값의 비교 결과에 관한 정보를 포함할 수 있다. 보다 구체적인 예로, 제3 에러 정보는 의료 이미지가 포함하고 있는 해부학적 구조 중 적어도 일부가 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함할 수 있다. The third error information may include information about a morphological index of the target region or a result of comparing a morphological value with a predetermined reference value. As a more specific example, the third error information may include information regarding whether at least a portion of anatomical structures included in the medical image satisfies a predetermined quantitative criterion.
제3 에러 정보 화면은 텍스트 또는 이미지를 포함할 수 있다. 제3 에러 정보 화면은 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 중 적어도 일부 영역의 형태학적 지표 또는 형태학적 값을 수치로 나타낸 텍스트를 포함할 수 있다. 제3 에러 정보 화면은 품질 판단의 기준이 되는 해부학적 구조에 대응되는 대상 영역이 원본 의료 이미지상에 표시된 이미지를 포함할 수 있다.The third error information screen may include text or an image. The third error information screen may include texts representing morphological indicators or morphological values of at least a portion of an anatomical structure of a human body obtained by segmenting a medical image. The third error information screen may include an image in which a target region corresponding to an anatomical structure that is a criterion for quality determination is displayed on the original medical image.
도 35 및 도 36은 제3 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.35 and 36 are diagrams for exemplarily explaining a third error information screen.
도 35의 (a)를 참조하면, 제3 에러 정보 화면은 제3 이미지 품질 판단과 관련 있는 의료 이미지(MI) 또는 영역 정보(RI)를 포함할 수 있다.Referring to FIG. 35A , the third error information screen may include a medical image MI or region information RI related to a third image quality determination.
이 경우, 의료 이미지(MI)는 이미지 세그멘테이션 결과를 기초로 제3 이미지 품질 판단에 이용되는 대상 영역에 관련된 정보를 포함할 수 있다. 예를 들어, 의료 이미지의 하측이 온전히 촬영되었는지 판단하는 경우, 의료 이미지는 품질 판단을 수행할 대상 영역, 예컨대, 소뇌와 관련된 정보가 표현된 이미지를 포함할 수 있다. 제3 에러 정보 화면은 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 정보를 보다 자세히 확인하기 위해 의료 이미지(MI)를 확대 또는 축소할 수 있는 버튼을 포함할 수 있다. 또한, 영역 정보(RI)는 이미지 품질 판단을 수행할 대상 영역과 관련된 정보, 의료 이미지에서 온전히 촬영되지 못한 부분에 관한 정보 또는 대상 영역이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보 중 어느 하나를 포함할 수 있다. 이때, 제3 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 영역 정보(RI)에 관한 보다 상세한 내용(예를 들어, 품질 판단의 대상이 된 인체의 영역 정보, 품질 판단의 대상이 된 이미지 영역에 관한 정보 등)을 추가적으로 표시할 수 있다.In this case, the medical image MI may include information related to the target region used for determining the third image quality based on the image segmentation result. For example, when it is determined whether the lower side of the medical image is completely photographed, the medical image may include an image in which information related to a target region for which quality determination is to be performed, for example, the cerebellum is expressed. The third error information screen may include a button for enlarging or reducing the medical image MI in order to check information on a region corresponding to an anatomical structure in the medical image in more detail. In addition, the region information (RI) includes any one of information related to a target region for which image quality determination is to be performed, information about a portion that is not completely captured in a medical image, or information on whether the target region meets a predetermined quantitative criterion. may include In this case, the third error information screen includes a detailed information object, and the output screen includes more detailed information about the medical image (MI) or area information (RI) according to the user selection for the detailed information object (eg, quality information on the region of the human body that has been the target of judgment, information on the image region that has been the target of quality judgment, etc.) may be additionally displayed.
도 35의 (b)를 참조하면, 제3 에러 정보 화면은 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 제3 정보를 포함하는 제3 알림창(CO)을 포함할 수 있다. 예시적으로, 제3 알림창(CO)은 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 에러 정보 예컨대, 세그멘테이션 정보가 미리 정해진 정량적인 기준을 만족하지 못하였다는 에러 코드가 표시된 메시지를 포함할 수 있다. 이 경우, 제3 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제3 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.Referring to FIG. 35B , the third error information screen may include a third notification window CO including third information on a region corresponding to an anatomical structure in a medical image. Illustratively, the third notification window CO may include a message in which error information regarding a region corresponding to an anatomical structure in the medical image, for example, an error code indicating that segmentation information does not satisfy a predetermined quantitative criterion is displayed. have. In this case, the third error information screen includes a detailed information object, and the output screen includes detailed information about the third information (eg, a description of an error code, generation of an error message according to a user selection for the detailed information object). Causes, manuals that can respond to error messages, etc.) can be additionally displayed.
도 36를 참조하면, 영역 정보(RI)는 의료 이미지의 제1 부분에 포함된 제1 대상 영역 및 제1 대상 영역이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함하는 제1 영역 정보(RI1), 의료 이미지의 제2 부분에 포함된 제2 대상 영역 및 제2 대상 영역이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함하는 제2 영역 정보(RI2) 또는 의료 이미지 내의 해부학적 구조의 배치에 관한 정보 및 보정 가부에 관한 정보를 포함하는 제3 영역 정보(RI3)를 포함할 수 있다.Referring to FIG. 36 , the region information RI includes a first target region included in a first portion of a medical image and first region information ( RI1), the second target region included in the second part of the medical image, and the second region information RI2 including information on whether the second target region satisfies a predetermined quantitative criterion or an anatomical structure in the medical image It may include third area information RI3 including information on the arrangement of , and information on whether to correct or not.
예시적으로, 제1 영역 정보(RI1)는 의료 이미지의 상부에 위치하는 대상 영역 예컨대, 전두엽에 관한 형태학적 지표 또는 형태학적 값이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함할 수 있다.For example, the first region information RI1 may include information on whether a morphological index or morphological value of a target region located above the medical image, for example, the frontal lobe satisfies a predetermined quantitative criterion. .
제2 영역 정보(RI2)는 의료 이미지의 하부에 위치하는 대상 영역 예컨대, 소뇌에 관한 형태학적 지표 또는 형태학적 값이 미리 정해진 정량적인 기준을 만족하는지에 관한 정보를 포함할 수 있다.The second region information RI2 may include information on whether a morphological index or morphological value of a target region, eg, the cerebellum, located below the medical image satisfies a predetermined quantitative criterion.
제3 영역 정보(RI3)는 의료 이미지 내의 해부학적 구조의 배치에 관한 정보 예컨대, 의료 이미지 내의 해부학적 구조가 기울어져 촬영되었는지에 관한 정보 및 이에 기초하여 의료 이미지를 보정할 수 있는지에 관한 판단 정보를 포함할 수 있다.The third region information RI3 includes information on the arrangement of anatomical structures in the medical image, for example, information on whether an anatomical structure in the medical image is photographed at an angle, and determination information on whether the medical image can be corrected based thereon. may include.
이미지 품질 관련 정보 출력 모듈(3900)은 제4 에러 정보 화면을 출력할 수 있다. 제4 에러 정보는 제4 이미지 품질 판단 결과를 기초로 획득한 정보를 포함할 수 있다. The image quality related
일 실시예에 따르면, 이미지 품질 관련 정보 출력 모듈(3900)은 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는 경우 제4 에러 정보 화면을 출력할 수 있다.According to an embodiment, the image quality related
제4 에러 정보는 이미지 획득 장치로부터 획득한 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보와 이미지 획득 장치로부터 획득한 의료 이미지에서 추출한 아티팩트 정보 간의 관계를 기초로 획득한 정보를 포함할 수 있다. 예시적으로, 제4 에러 정보는 MRI 이미지가 포함하고 있는 뇌의 각 영역의 해부학적 구조 중 적어도 일부에 아티팩트가 발생되었는지에 관한 정보를 포함할 수 있다.The fourth error information may include information obtained based on a relationship between segmentation information obtained by anatomically segmenting the medical image obtained from the image obtaining apparatus and artifact information extracted from the medical image obtained from the image obtaining apparatus. For example, the fourth error information may include information regarding whether an artifact has occurred in at least a portion of an anatomical structure of each region of the brain included in the MRI image.
제4 에러 정보는 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는지에 관한 정보를 포함할 수 있다. 또한, 제4 에러 정보는 의료 이미지 내에 발생된 아티팩트와 의료 이미지 내에 포함되어 있는 해부학적 구조 중 적어도 일부의 중첩 정도에 관한 정보를 포함할 수 있다. 또한, 제4 에러 정보는 의료 이미지 내에 발생된 아티팩트와 의료 이미지 내에 포함되어 있는 해부학적 구조 중 적어도 일부의 중첩 정도에 기초하여 의료 이미지의 분석을 통한 질병 판단 결과의 신뢰도에 관한 정보를 포함할 수 있다.The fourth error information may include information regarding whether an artifact generated in the medical image overlaps with at least a part of anatomical structures included in the medical image. In addition, the fourth error information may include information about an overlapping degree of at least a portion of an artifact generated in the medical image and an anatomical structure included in the medical image. In addition, the fourth error information may include information about the reliability of the disease determination result through analysis of the medical image based on the degree of overlap between the artifact generated in the medical image and at least a part of an anatomical structure included in the medical image. have.
제4 에러 정보는 의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률과 관심 영역 간의 관계에 관한 정보를 포함할 수 있다. 또한, 제4 에러 정보는 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역인 제1 아티팩트 영역, 의료 이미지 내에서 아티팩트가 위치할 가능성이 보통인 영역인 제2 아티팩트 영역 또는 의료 이미지 내에서 아티팩트가 위치할 가능성이 낮은 영역인 제3 아티팩트 영역에 관한 정보 중 적어도 어느 하나를 포함할 수 있다. 제1 내지 제3 아티팩트 영역은 원본 의료 이미지 상에 시각적으로 강조될 수 있다. 제1 내지 제3 아티팩트 영역은 히트맵 형태로, 원본 의료 이미지 상에 중첩되어 표시될 수 있다.The fourth error information may include information on a relationship between a probability that an artifact is located in a specific region in the medical image and a region of interest. In addition, the fourth error information includes a first artifact area, which is an area where artifacts are most likely to be located within the medical image, a second artifact area, which is an area where artifacts are most likely to be located within the medical image, or an artifact within the medical image. At least one of information about the third artifact area, which is an area that is unlikely to be located, may be included. The first to third artifact regions may be visually emphasized on the original medical image. The first to third artifact regions may be displayed in a heat map form to be superimposed on the original medical image.
제4 에러 정보 화면은 텍스트 또는 이미지를 포함할 수 있다. 예를 들어, 제4 에러 정보 화면은 의료 이미지를 세그멘테이션하여 얻어지는 인체의 해부학적 구조 상에 아티팩트 영역 정보 예컨대, 의료 이미지 내에서 아티팩트가 위치할 가능성이 높은 영역을 나타내는 히트맵 형태의 샐리언시 맵, 의료 이미지 내에서 아티팩트가 위치하는 영역을 표시하기 위한 바운딩 박스, 의료 이미지 내에서 아티팩트가 위치하는 좌표 정보 또는 픽셀 정보 등을 표시한 이미지를 포함할 수 있다.The fourth error information screen may include text or an image. For example, the fourth error information screen may include artifact area information on an anatomical structure of a human body obtained by segmenting a medical image, for example, a saliency map in the form of a heat map indicating a region where an artifact is likely to be located in the medical image. , a bounding box for displaying a region in which an artifact is located in a medical image, and an image in which coordinate information or pixel information in which an artifact is located in the medical image is displayed.
도 37 및 도 38은 제4 에러 정보 화면을 예시적으로 설명하기 위한 도면이다.37 and 38 are diagrams for exemplarily explaining a fourth error information screen.
도 37의 (a)를 참조하면, 제4 에러 정보 화면은 제4 이미지 품질 판단과 관련 있는 의료 이미지(MI) 또는 아티팩트와 관심 영역 간의 관계에 관한 정보(QI) 중 적어도 어느 하나를 포함할 수 있다.Referring to (a) of FIG. 37 , the fourth error information screen may include at least one of a medical image (MI) related to the fourth image quality determination or information (QI) related to a relationship between an artifact and a region of interest. have.
의료 이미지(MI)는 이미지 내에 관심 영역이 표시된 이미지일 수 있다. 의료 이미지(MI)는 이미지 내의 특정 영역에 아티팩트가 위치할 가능성이 높은 영역이 표시된 이미지일 수 있다.The medical image MI may be an image in which a region of interest is displayed in the image. The medical image MI may be an image in which a region in which an artifact is highly likely to be located is displayed in a specific region within the image.
의료 이미지(MI)는 아티팩트의 위치 정보에 기초하여 획득된 관심 영역과 아티팩트의 중첩 정도를 표시할 수 있다. 예를 들어, 의료 이미지(MI)는 관심 영역과 아티팩트가 중첩된 영역에 관련된 정보 예컨대, 중첩된 영역의 면적, 모양, 픽셀의 수 등을 표시할 수 있다. 의료 이미지(MI)는 관심 영역과 관심 영역 중 아티팩트와 중첩되는 영역의 비율을 표시할 수 있다. The medical image MI may indicate a degree of overlap between the ROI and the artifact acquired based on the location information of the artifact. For example, the medical image MI may display information related to the region where the ROI and the artifact overlap, for example, the area, shape, and number of pixels of the overlapped region. The medical image MI may indicate a ratio of the ROI and the region overlapping the artifact among the ROI.
의료 이미지(MI)는 의료 이미지 내의 특정 영역에 아티팩트가 위치할 확률과 관심 영역 간의 관계가 표시된 이미지일 수 있다.The medical image MI may be an image in which a relationship between a region of interest and a probability that an artifact is located in a specific region in the medical image is displayed.
예를 들어, 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 시각적으로 강조되도록 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 히트맵 형식으로 표시되거나 아티팩트에 대응되는 영역의 경계선 예컨대, 외곽 라인이 표시된 이미지일 수 있다. For example, the medical image MI may be an image in which an area corresponding to an artifact is visually emphasized on the target medical image. The medical image MI may be an image in which a region corresponding to an artifact is displayed on a target medical image in the form of a heat map, or a boundary line, eg, an outer line, of a region corresponding to the artifact is displayed.
또는, 의료 이미지(MI)는 아티팩트와 관심 영역이 중첩되는 부분이 시각적으로 강조되도록 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역의 경계선 예컨대, 외곽 라인이 표시된 이미지일 수 있다. 의료 이미지(MI)는 대상 의료 이미지 상에 아티팩트에 대응되는 영역이 히트맵 형식으로 표시된 이미지일 수 있다.Alternatively, the medical image MI may be an image displayed so that a portion where the artifact and the region of interest overlap is visually emphasized. The medical image MI may be an image in which a region corresponding to an artifact is displayed on a target medical image. The medical image MI may be an image in which a boundary line, for example, an outline, of a region corresponding to an artifact is displayed on the target medical image. The medical image MI may be an image in which a region corresponding to an artifact is displayed on a target medical image in a heat map format.
아티팩트와 관심 영역 간의 관계에 관한 정보(QI)는 관심 영역의 종류에 관한 정보, 관심 영역과 아티팩트의 중첩 정보 또는 중첩 정보에 기초한 품질 판단 결과 정보 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.The information on the relationship between the artifact and the ROI may include, but is not limited to, information about the type of the ROI, overlapping information between the ROI and the artifact, or quality determination result information based on the overlapping information.
이 경우, 제4 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라, 의료 이미지(MI) 또는 아티팩트와 관심 영역 간의 관계에 관한 정보(QI)에 관한 보다 상세한 내용(예를 들면, 관심 영역과 아티팩트가 중첩되는 정도를 보다 세분화된 단계로 나누어 표현한 정보, 관심 영역과 아티팩트가 중첩되는 정도를 수치로 나타낸 정보, 관심 영역 중 아티팩트와 중첩되는 부분에 관한 상세 정보 등)을 추가적으로 표시할 수 있다.In this case, the fourth error information screen includes the detailed information object, and the output screen contains information about the medical image (MI) or information on the relationship between the artifact and the region of interest (QI) according to the user selection for the detailed information object. Detailed content (e.g., information expressing the degree of overlap between the region of interest and the artifact by dividing it into more granular steps, information indicating the degree of overlap between the region of interest and the artifact numerically, and details on the overlapping part with the artifact in the region of interest information, etc.) can be additionally displayed.
도 37의 (b)를 참조하면, 제4 에러 정보 화면은 의료 이미지 내의 관심 영역에 관한 제4 정보를 포함하는 제4 알림창(CO)을 포함할 수 있다.Referring to (b) of FIG. 37 , the fourth error information screen may include a fourth notification window CO including fourth information on the ROI in the medical image.
제4 알림창(CO)은 관심 영역 중 적어도 일부와 아티팩트가 중첩되었다는 정보가 포함된 에러 코드가 표시된 메시지를 포함할 수 있다. 이 경우, 제4 에러 정보 화면은 상세 정보 오브젝트를 포함하고, 출력 화면은 상세 정보 오브젝트에 대한 사용자 선택에 따라 제4 정보에 관한 상세한 내용(예를 들어, 에러 코드에 관한 설명, 에러 메시지의 발생 원인, 에러 메시지에 대응할 수 있는 매뉴얼 등)을 추가적으로 표시할 수 있다.The fourth notification window CO may include a message in which an error code including information that an artifact overlaps with at least a portion of the ROI is displayed. In this case, the fourth error information screen includes a detailed information object, and the output screen includes detailed information about the fourth information (eg, a description of an error code, generation of an error message according to a user selection for the detailed information object). Causes, manuals that can respond to error messages, etc.) can be additionally displayed.
제4 알림창(CO)은 관심 영역 중 적어도 일부와 아티팩트가 중첩된 경우 계속하여 이미지 분석을 진행할지 여부를 선택할 수 있는 오브젝트를 포함하고, 이미지 분석 장치(3900)는 이미지 분석 진행 오브젝트에 대한 사용자의 선택에 따라 계속하여 이미지 분석을 진행할 수 있다.The fourth notification window CO includes an object for selecting whether to continue image analysis when at least a portion of the region of interest overlaps with an artifact, and the
제4 알림창(CO)은 관심 영역 중 적어도 일부와 아티팩트가 중첩된 경우 이미지 분석을 중단 오브젝트를 포함하고, 이미지 분석 장치(3900)는 이미지 분석 중단 오브젝트에 대한 사용자의 선택에 따라 이미지 분석을 중단할 수 있다.The fourth notification window CO includes an object that stops image analysis when the artifact overlaps with at least a portion of the region of interest, and the
도 38을 참조하면, 아티팩트와 관심 영역 간의 관계에 관한 정보(QI)는 의료 이미지 내에 발생된 아티팩트 정보(QI1), 의료 이미지 내의 해부학적 구조에 대응되는 영역에 관한 관심 영역 정보(QI2) 또는 아티팩트와 해부학적 구조에 대응되는 영역의 중첩 정도에 관한 정보(QI3) 중 적어도 하나를 포함할 수 있다. 예시적으로, 제4 에러 정보는 관심 영역이 두개골로 특정된 경우, 두개골에 대응되는 소정 영역에 아티팩트가 발생되어 있는지에 관한 정보, 두개골에 대응되는 소정 영역과 아티팩트의 중첩 정도에 관한 정보 등을 포함할 수 있다.Referring to FIG. 38 , information on the relationship between the artifact and the region of interest (QI) includes artifact information generated in a medical image (QI1), region of interest information (QI2) on a region corresponding to an anatomical structure in the medical image, or artifact. and at least one of information QI3 about a degree of overlap of a region corresponding to an anatomical structure. Illustratively, the fourth error information includes, when the region of interest is specified as a skull, information on whether an artifact is generated in a predetermined region corresponding to the skull, information on the degree of overlap of the artifact with a predetermined region corresponding to the skull, etc. may include
도 39 및 도 40은 이미지 품질 관련 정보 출력 모듈(3900)이 출력하는 선택창을 예시적으로 설명하기 위한 도면이다.39 and 40 are diagrams for exemplarily explaining a selection window output by the image quality related
상술한 바와 같이 획득된 의료 데이터에 부적절한 형식적 또는 실질적 흠결이 존재하는 경우 상기 의료 데이터에 기초한 이미지 분석의 결과는 일정 수준 이상의 신뢰도를 갖기 어려울 수 있다.As described above, when inappropriate formal or substantial flaws exist in the acquired medical data, it may be difficult to obtain a reliability of a result of image analysis based on the medical data above a certain level.
다만, 의료 데이터에 형식적 또는 실질적 흠결이 존재하더라도, 일정 기준 예컨대, 의료 데이터에 존재하는 흠결의 종류 또는 정도에 관한 기준을 만족하는 경우 이미지 분석이 계속하여 수행될 수 있다. 이에 따라, 의료 데이터에 일정 흠결이 존재하는 경우에도, 일률적으로 이미지 분석의 진행을 중단하는 것이 아니라, 일정 기준에 따라 이미지 분석의 진행 여부를 결정하거나 의료 이미지를 보정 또는 재촬영한 후 이미지 분석을 다시 진행할 수 있도록 함으로써, 시간 및 비용 측면에서 경제적이고 효율적으로 이미지 분석을 수행할 수 있다.However, even if a formal or substantial defect exists in the medical data, image analysis may be continuously performed when a predetermined criterion, for example, a criterion regarding the type or degree of defect present in the medical data is satisfied. Accordingly, even if there is a certain defect in the medical data, the image analysis is not uniformly stopped, but image analysis is decided according to a predetermined criterion, or the image analysis is performed after correcting or re-photographing the medical image. By allowing the process to be performed again, image analysis can be performed economically and efficiently in terms of time and cost.
본 발명의 이미지 품질 판단 프로세스는 의료 데이터에 일정 흠결이 발생한 경우, 상기 흠결에도 불구하고 이미지 분석 장치가 이미지 분석을 계속하여 수행할 수 있을지 판단할 수 있는 기준을 제공하는 것을 포함할 수 있다. 또한, 이미지 품질 판단 프로세스는 의료 데이터의 품질과 관련된 정보를 사용자에게 제공하고, 사용자의 선택에 따라 이미지 분석의 진행 여부가 결정되거나 의료 이미지를 보정 또는 재촬영한 후 이미지 분석의 재수행이 결정되도록 하는 수단을 제공할 수 있다.The image quality determination process of the present invention may include, when a certain defect occurs in the medical data, providing a criterion for determining whether the image analysis apparatus can continue to analyze the image despite the defect. In addition, the image quality determination process provides information related to the quality of medical data to the user, and determines whether to proceed with image analysis according to the user's selection or determines whether to perform image analysis again after correcting or re-photographing the medical image. can provide a means to
도 39을 참조하면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 결과에 기초하여 선택창을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단을 통해 이미지의 품질이 정상적이지 않다고 판단되는 경우 선택창을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단을 통해 이미지의 품질이 정상적이라고 판단되는 경우 이미지 분석을 진행한 후 이미지 품질 관련 정보를 출력할 수 있다.Referring to FIG. 39 , the image quality related
선택창은 이미지 품질 판단에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 의료 이미지의 품질이 이미지 분석 진행이 수행되기에 적합하지 않음을 나타내는 메시지를 포함할 수 있다.The selection window may include a message generated based on the image quality determination. The selection window may include a message indicating that the quality of the medical image is not suitable for image analysis to be performed based on the image quality determination.
도 40을 참조하면, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 결과에 기초하여 선택창을 출력할 수 있다. 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단을 통해 이미지 품질이 정상적이지 않다고 판단되는 경우, 이미지 분석 진행과 관련한 사용자 지시를 획득하기 위한 선택창을 출력할 수 있다. 이에 따라, 이미지 분석 장치는 의료 데이터에 흠결이 발생한 경우에도, 일정 기준에 기초한 사용자의 선택에 따라 이미지 분석을 계속하여 진행할 수 있다. 이미지 분석 장치는 의료 데이터에 흠결이 발생한 경우에도, 사용자의 선택에 따라 의료 이미지를 보정 또는 재촬영한 후 이미지 분석을 다시 진행할 수 있다.Referring to FIG. 40 , the image quality related
선택창은 이미지 품질 판단 모듈(3700)이 수행한 이미지 품질 판단 결과에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 제1 이미지 품질 판단부(3710) 내지 제4 이미지 품질 판단부(3770)가 수행한 결과에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 생성된 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 의료 이미지의 품질이 일정 수준을 만족하지 못하고 있음을 나타내는 메시지를 포함할 수 있다. 선택창은 이미지 품질 판단에 기초하여 의료 이미지의 품질이 이미지 분석 진행이 수행되기에 적합하지 않음을 나타내는 메시지를 포함할 수 있다.The selection window may include a message generated based on the image quality determination result performed by the image
선택창은 상술한 메시지에 대한 사용자의 동의 여부를 획득하기 위한 제1 버튼 및 제2 버튼을 포함할 수 있다. 이미지 분석 장치는 사용자의 제1 버튼의 선택에 따라 이미지 분석 진행 여부를 선택할 수 있는 추가적인 메시지를 출력할 수 있다. 이미지 분석 장치는 사용자의 제2 버튼의 선택에 따라 상기 메시지에 관한 보다 상세한 내용을 출력할 수 있다.The selection window may include a first button and a second button for obtaining whether the user agrees to the above-described message. The image analysis apparatus may output an additional message for selecting whether to proceed with image analysis according to the user's selection of the first button. The image analysis apparatus may output more detailed information about the message according to the user's selection of the second button.
선택창은 이미지 분석 장치에 의한 이미지 분석 진행과 관련한 사용자 지시를 획득하기 위한 제1 선택창을 포함할 수 있다. 즉, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 모듈(3700)이 수행한 결과에 기초하여 이미지 분석 장치에 의한 이미지 분석을 계속하여 진행할지 여부에 관한 사용자 지시를 획득하기 위한 제1 선택창을 출력할 수 있다.The selection window may include a first selection window for obtaining a user instruction related to image analysis by the image analysis apparatus. That is, the image quality-related
선택창은 이미지 품질 판단 프로세스를 다시 수행하는 동작과 관련한 사용자의 지시를 획득하기 위한 제2 선택창을 포함할 수 있다. 즉, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 모듈(3700)이 수행한 결과에 기초하여 이미지 품질 판단 프로세스를 다시 진행할지에 관한 사용자의 지시를 획득하기 위한 제2 선택창을 출력할 수 있다.The selection window may include a second selection window for obtaining a user's instruction regarding the operation of re-performing the image quality determination process. That is, the image quality-related
일 실시예에 따르면, 제2 이미지 품질 판단부(3730)에 의한 품질 판단 결과 의료 이미지 내에 아티팩트가 포함되어 있다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 제1 선택창을 출력할 수 있다.According to an embodiment, when it is determined that an artifact is included in the medical image as a result of the quality determination by the second image
제1 선택창은 의료 이미지 내에 포함되어 있는 아티팩트 정보 예컨대, 아티팩트 발생 여부, 아티팩트 발생 위치, 아티팩트 발생 정도, 아티팩트 발생 범위 또는 아티팩트 종류 등에 관한 제1 메시지를 출력할 수 있다.The first selection window may output a first message regarding artifact information included in the medical image, for example, whether or not an artifact has occurred, an artifact occurrence location, an artifact occurrence degree, an artifact occurrence range, or an artifact type.
제2 이미지 품질 판단부(3730)에 의한 품질 판단 결과 의료 이미지 내에 아티팩트가 포함되어 있다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 프로세스의 재 수행과 관련한 사용자의 지시를 획득할 수 있는 제2 선택창을 출력할 수 있다.When it is determined that an artifact is included in the medical image as a result of the quality determination by the second image
제2 선택창은 의료 이미지 내에 포함되어 있는 아티팩트를 보정 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다. 제2 선택창은 의료 이미지를 재촬영한 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다.The second selection window may output a second message requesting a user's instruction as to whether to proceed with the image quality determination process again after correcting artifacts included in the medical image. The second selection window may output a second message requesting a user's instruction as to whether or not to proceed with the image quality determination process again after re-photographing the medical image.
다른 실시예에 따르면, 제3 이미지 품질 판단부(3750)에 의한 품질 판단 결과 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 세그멘테이션 정보가 정량적인 기준을 만족하지 못한다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 제1 선택창을 출력할 수 있다.According to another embodiment, when it is determined that the segmentation information does not satisfy a quantitative criterion based on the segmentation information obtained by anatomically segmenting a medical image as a result of quality determination by the third image
제1 선택창은 의료 이미지 세그멘테이션을 통하여 획득한 영역 중 적어도 일부 영역에 관한 형태학적 지표 또는 형태학적 값, 예컨대, 해당 영역의 면적, 부피, 위치 또는 모양 등에 관한 제1 메시지를 포함할 수 있다.The first selection window may include a morphological index or morphological value of at least a partial region among regions obtained through medical image segmentation, for example, a first message regarding an area, volume, location, or shape of the corresponding region.
제3 이미지 품질 판단부(3750)에 의한 품질 판단 결과 의료 이미지를 해부학적으로 세그멘테이션한 세그멘테이션 정보에 기초하여 세그멘테이션 정보가 정량적인 기준을 만족하지 못한다고 판단되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 이미지 품질 판단 프로세스의 재 수행 동작과 관련한 사용자의 지시를 획득할 수 있는 제2 선택창을 출력할 수 있다.When it is determined that the segmentation information does not satisfy the quantitative criterion based on the segmentation information obtained by anatomically segmenting the medical image as a result of the quality determination by the third image
제2 선택창은 의료 이미지 내의 해부학적 세그멘테이션 정보를 보정 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자 지시를 요청하는 제2 메시지를 출력할 수 있다. 제2 선택창은 의료 이미지를 재촬영한 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다.The second selection window may output a second message requesting a user instruction regarding whether to proceed with the image quality determination process again after correcting the anatomical segmentation information in the medical image. The second selection window may output a second message requesting a user's instruction as to whether or not to proceed with the image quality determination process again after re-photographing the medical image.
일 실시예에 따르면, 제4 이미지 품질 판단부(3770)에 의한 품질 판단 결과 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 제1 선택창을 출력할 수 있다.According to an embodiment, when an artifact generated in the medical image is overlapped with at least a part of anatomical structures included in the medical image as a result of quality determination by the fourth image
제1 선택창은 의료 이미지 내에 포함되어 있는 아티팩트와 관심 영역의 관계 정보 예컨대, 아티팩트와 관심 영역의 중첩 정도, 관심 영역 내에 존재하는 아티팩트의 위치 정보 등에 관한 제1 메시지를 출력할 수 있다.The first selection window may output a first message regarding relationship information between the artifact and the region of interest included in the medical image, for example, the degree of overlap between the artifact and the region of interest, location information of the artifact existing in the region of interest, and the like.
제4 이미지 품질 판단부(3770)에 의한 품질 판단 결과 의료 이미지 내에 발생된 아티팩트가 의료 이미지에 포함되어 있는 해부학적 구조 중 적어도 일부와 중첩되는 경우, 이미지 품질 관련 정보 출력 모듈(3900)은 사용자가 이미지 품질 판단 프로세스를의 재 수행과 관련한 사용자의 지시를 획득할 수 있는 제2 선택창을 출력할 수 있다.As a result of the quality determination by the fourth image
제2 선택창은 의료 이미지 내에 포함되어 있는 해부학적 구조 중 적어도 일부를 보정 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다. 제2 선택 창은 의료 이미지를 재촬영한 후 다시 이미지 품질 판단 프로세스를 진행할 것인지 여부에 관한 사용자의 지시를 요청하는 제2 메시지를 출력할 수 있다.The second selection window may output a second message requesting a user's instruction regarding whether to proceed with the image quality determination process again after correcting at least a part of anatomical structures included in the medical image. The second selection window may output a second message requesting a user's instruction as to whether or not to proceed with the image quality determination process again after re-photographing the medical image.
이하에서는 다양한 실시예에 따른 품질 판단 프로세스를 설명한다. 특별한 설명이 없는 한 각 단계의 내용은 본 명세서에서 전술한 내용이 유사하게 적용될 수 있다.Hereinafter, a quality determination process according to various embodiments will be described. Unless otherwise specified, the contents of each step may be similarly applied to the contents described above in this specification.
도 41 내지 도 43은 제1 내지 제3 품질 판단 프로세스를 설명하기 위한 도면이다. 제1 내지 제4 품질 판단 프로세스는 품질 판단의 기준이 되는 데이터, 품질 판단의 기준이 되는 품질 기준, 출력되는 품질 정보 등이 상이할 수 있다.41 to 43 are diagrams for explaining first to third quality determination processes. In the first to fourth quality determination processes, data as a standard for quality determination, a quality standard as a standard for quality determination, and output quality information may be different.
도 41 내지 도 43을 참조하면, 제1 내지 제3 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 품질 판단 단계(S3300), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400) 또는 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다.41 to 43 , the first to third quality determination processes include a medical image acquisition step (S3000), a medical image quality determination step (S3300), a medical image preprocessing step (S3200), and a medical image segmentation step (S3400). Alternatively, the step of outputting medical image quality-related information ( S3500 ) may be included.
도 41을 참조하면, 제1 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 품질 판단 단계(S3300), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400) 및 의료 이미지 품질 관련 정보 출력 단계(S3500) 순서로 수행될 수 있다. 이 경우, 의료 이미지 품질 판단 단계(S3300)는 전처리 동작 전에 로데이터에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 의료 이미지 전처리 단계(S3200)는 의료 이미지 품질 판단이 수행된 이미지에 대하여 전처리를 수행하는 것을 포함할 수 있다.Referring to FIG. 41 , the first quality determination process includes a medical image acquisition step (S3000), a medical image quality determination step (S3300), a medical image preprocessing step (S3200), a medical image segmentation step (S3400), and medical image quality related information It may be performed in the order of the output step (S3500). In this case, the medical image quality determination step S3300 may include determining the image quality based on the raw data before the pre-processing operation. The medical image preprocessing step S3200 may include performing preprocessing on the image on which the medical image quality determination has been performed.
도 42을 참조하면, 제2 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 전처리 단계(S3200), 의료 이미지 품질 판단 단계(S3300), 의료 이미지 세그멘테이션 단계(S3400) 및 의료 이미지 품질 관련 정보 출력 단계(S3500) 순서로 수행될 수 있다. 이 경우, 의료 이미지 품질 판단 단계(S3300)는 전처리가 수행된 이미지를 기초로 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 의료 이미지 세그멘테이션 단계(S3400)는 의료 이미지 품질 판단이 수행된 이미지에 대하여 세그멘테이션을 수행하는 것을 포함할 수 있다.42 , the second quality determination process includes a medical image acquisition step (S3000), a medical image preprocessing step (S3200), a medical image quality determination step (S3300), a medical image segmentation step (S3400), and medical image quality related information It may be performed in the order of the output step (S3500). In this case, the medical image quality determination step S3300 may include determining the image quality based on the pre-processed image. The medical image segmentation step S3400 may include performing segmentation on the image on which the medical image quality determination has been performed.
도 43을 참조하면, 제3 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400) 의료 이미지 품질 판단 단계(S3300), 및 의료 이미지 품질 관련 정보 출력 단계(S3500) 순서로 수행될 수 있다. 이 경우, 의료 이미지 품질 판단 단계(S3300)는 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 이미지 품질 판단을 수행하는 것을 포함할 수 있다.Referring to FIG. 43 , the third quality determination process includes a medical image acquisition step (S3000), a medical image preprocessing step (S3200), a medical image segmentation step (S3400), a medical image quality determination step (S3300), and medical image quality related information It may be performed in the order of the output step (S3500). In this case, the medical image quality determination step S3300 may include determining the image quality based on the image on which the pre-processing operation and the segmentation operation have been performed.
도 44 및 도 45는 제4 품질 판단 프로세스를 설명하기 위한 도면이다.44 and 45 are diagrams for explaining a fourth quality determination process.
도 44를 참조하면, 제4 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 제1 이미지 품질 판단 단계(S3310), 의료 이미지 전처리 단계(S3200), 의료 이미지 세그멘테이션 단계(S3400), 제2 이미지 품질 판단 단계(S3320), 제3 이미지 품질 판단 단계(S3330), 제4 이미지 품질 판단 단계(S3340) 및 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다.Referring to FIG. 44 , the fourth quality determination process includes a medical image acquisition step (S3000), a first image quality determination step (S3310), a medical image preprocessing step (S3200), a medical image segmentation step (S3400), and a second image quality It may include a determination step (S3320), a third image quality determination step (S3330), a fourth image quality determination step (S3340), and a medical image quality related information output step (S3500).
제1 이미지 품질 판단 단계(S3310)는 전처리 동작 전에 로데이터에 기초하여 제1 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 제2 내지 제4 이미지 품질 판단 단계는 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제2 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 이때, 제2 내지 제4 이미지 품질 판단 단계의 순서는 본 명세서에서 설명하는 발명의 내용을 한정하는 것은 아니며, 각 단계의 순서는 변경될 수 있다.The first image quality determination step S3310 may include performing a first image quality determination based on raw data before the pre-processing operation. The second to fourth image quality determination steps may include performing a second image quality determination based on an image on which a preprocessing operation and a segmentation operation have been performed. In this case, the order of the second to fourth image quality determination steps does not limit the invention described in this specification, and the order of each step may be changed.
예를 들어, 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제3 이미지 품질 판단 단계(S3330)가 수행된 후 제2 이미지 품질 판단 단계(S3320)가 수행될 수 있다. 또는, 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제2 이미지 품질 판단 단계(S3320)와 제3 이미지 품질 판단 단계(S3330)는 병렬적으로 수행될 수 있다.For example, after the third image quality determination step S3330 is performed based on the image on which the preprocessing operation and the segmentation operation have been performed, the second image quality determination step S3320 may be performed. Alternatively, the second image quality determination step S3320 and the third image quality determination step S3330 may be performed in parallel based on the image on which the preprocessing operation and the segmentation operation have been performed.
도 45를 참조하면, 이미지 분석 장치(3000)는 이미지 획득 장치로부터 의료 이미지를 획득(S3910)할 수 있다. 이미지 분석 장치(3000)는 획득된 의료 이미지에 기초하여 1차 이미지 품질 판단을 수행(S3911)할 수 있다. 여기서, 1차 이미지 품질 판단은 의료 이미지 세그멘테이션 동작 전에 수행되는 일련의 품질 판단을 포함할 수 있다. 예를 들어, 1차 이미지 품질 판단은 의료 이미지의 메타데이터에 기초하여 수행되는 품질 판단을 포함할 수 있다.Referring to FIG. 45 , the
이때, 1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족하지 못한다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단하고 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다.In this case, when it is determined that the image quality does not satisfy the predetermined condition as a result of the primary image quality determination, the
1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족한다고 판단되는 경우, 이미지 분석 장치(3000)는 의료 이미지 세그멘테이션을 수행(S3913)할 수 있다. 또한, 이미지 분석 장치(3000)는 세그멘테이션 동작이 수행된 의료 이미지에 기초하여 2차 이미지 품질 판단을 수행(S3914)할 수 있다.When it is determined that the image quality satisfies a predetermined condition as a result of the primary image quality determination, the
2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 의료 이미지 분석을 계속하여 수행(S3917)한 후 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다.As a result of the secondary image quality determination, if it is determined that no artifact is generated in the ROI in the medical image, the
2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되었다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단할 수 있다. 이 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단한 후 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다. 예시적으로, 2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되었다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단한 후 의료 이미지를 보정한 다음 이미지 품질 판단 프로세스를 다시 수행할 수 있다. 다른 예로, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단한 후 의료 이미지를 재촬영한 다음 이미지 품질 판단 프로세스를 다시 수행할 수 있다. When it is determined that the artifact is generated in the ROI in the medical image as a result of the secondary image quality determination, the
2차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석을 계속하여 수행(S3917)한 후 의료 이미지 품질 관련 정보를 출력(S3918)할 수 있다.If it is determined as a result of the secondary image quality determination that no artifact is generated in the region of interest in the medical image, the
도 46 및 도 47은 제5 품질 판단 프로세스를 설명하기 위한 도면이다.46 and 47 are diagrams for explaining a fifth quality determination process.
도 46을 참조하면, 제5 품질 판단 프로세스는 의료 이미지 획득 단계(S3000), 제1 이미지 품질 판단 단계(S3310), 의료 이미지 전처리 단계(S3200), 제2 이미지 품질 판단 단계(S3320), 의료 이미지 세그멘테이션 단계(S3400), 제3 이미지 품질 판단 단계(S3330), 제4 이미지 품질 판단 단계(S3340) 및 의료 이미지 품질 관련 정보 출력 단계(S3500)를 포함할 수 있다.Referring to FIG. 46 , the fifth quality determination process includes a medical image acquisition step (S3000), a first image quality determination step (S3310), a medical image preprocessing step (S3200), a second image quality determination step (S3320), and a medical image It may include a segmentation step (S3400), a third image quality determination step (S3330), a fourth image quality determination step (S3340), and a medical image quality related information output step (S3500).
제1 이미지 품질 판단 단계(S3310)는 전처리 동작 전에 로데이터에 기초하여 제1 이미지 품질 판단을 수행하는 것을 포함할 수 있다. 제2 이미지 품질 판단 단계(S3320)는 전처리 동작이 수행된 이미지에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다. 제3 이미지 품질 판단 단계(S3330) 및 제4 이미지 품질 판단 단계(S3340)는 세그멘테이션 동작이 수행된 이미지에 기초하여 품질 판단을 수행하는 것을 포함할 수 있다.The first image quality determination step S3310 may include performing a first image quality determination based on raw data before the pre-processing operation. The second image quality determination step S3320 may include quality determination based on the image on which the pre-processing operation has been performed. The third image quality determination step S3330 and the fourth image quality determination step S3340 may include quality determination based on the image on which the segmentation operation has been performed.
제3 이미지 품질 판단 단계(S3330) 및 제4 이미지 품질 판단 단계(S3340)의 순서는 본 명세서에서 설명하는 발명의 내용을 한정하는 것은 아니며, 각 단계의 순서는 변경될 수 있다. 예를 들어, 전처리 동작 및 세그멘테이션 동작이 수행된 이미지에 기초하여 제3 이미지 품질 판단 단계(S3330)와 제4 이미지 품질 판단 단계(S3340)는 병렬적으로 수행될 수 있다.The order of the third image quality determination step S3330 and the fourth image quality determination step S3340 does not limit the invention described herein, and the order of each step may be changed. For example, the third image quality determination step S3330 and the fourth image quality determination step S3340 may be performed in parallel based on the image on which the preprocessing operation and the segmentation operation have been performed.
도 47을 참조하면, 이미지 분석 장치(3000)는 이미지 획득 장치로부터 의료 이미지를 획득(S3920)할 수 있다. 이미지 분석 장치(3000)는 획득된 의료 이미지에 기초하여 1차 이미지 품질 판단을 수행(S3921)할 수 있다. Referring to FIG. 47 , the
1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족하지 못한다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단하고 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다. When it is determined that the image quality does not satisfy the predetermined condition as a result of the primary image quality determination, the
1차 이미지 품질 판단 결과 이미지 품질이 일정 조건을 만족한다고 판단되는 경우, 이미지 분석 장치(3000)는 2차 이미지 품질 판단을 수행(S3923)할 수 있다. 여기서, 2차 이미지 품질 판단은 이미지 세그멘테이션 동작 전에 수행되는 일련의 품질 판단을 포함할 수 있다.When it is determined that the image quality satisfies a predetermined condition as a result of the primary image quality determination, the
이미지 분석 장치(3000)는 2차 이미지 품질 판단이 수행된 의료 이미지에 기초하여 의료 이미지 세그멘테이션을 수행(S3924)할 수 있다. 또한, 이미지 분석 장치(3000)는 의료 이미지 세그멘테이션이 수행된 세그멘테이션 정보에 기초하여 3차 이미지 품질 판단을 수행(3925)할 수 있다. 여기서, 3차 이미지 품질 판단은 이미지 세그멘테이션 동작 후에 수행되는 일련의 품질 판단을 포함할 수 있다.The
3차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 의료 이미지 분석을 계속하여 수행한 후 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다.When it is determined that no artifact is generated in the ROI in the medical image as a result of the tertiary image quality determination, the
3차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되었다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석의 진행을 중단3000하고, 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다. 여기서, 의료 이미지 품질 관련 정보란 1차 내지 3차 이미지 품질 판단에 기초한 정보를 포함할 수 있다.When it is determined that an artifact is generated in the ROI in the medical image as a result of the third image quality determination, the
3차 이미지 품질 판단 결과 의료 이미지 내의 관심 영역에 아티팩트가 발생되지 않았다고 판단되는 경우, 이미지 분석 장치(3000)는 이미지 분석을 계속하여 수행한 후 의료 이미지 품질 관련 정보를 출력(S3929)할 수 있다. 여기서, 의료 이미지 품질 관련 정보란 1차 내지 3차 이미지 품질 판단에 기초한 정보를 포함할 수 있다.If it is determined as a result of the tertiary image quality that no artifact is generated in the ROI in the medical image, the
본 명세서에 따른 이미지 품질 판단 프로세스는 도 44 내지 도 47에 설명된 순서 외의 다른 순서로도 구현될 수 있다. The image quality determination process according to the present specification may be implemented in an order other than the order described in FIGS. 44 to 47 .
뇌와 관련된 질환, 특히 치매와 관련하여, 뇌의 수축 정도가 지표화되어 치매 진단의 보조 지표로 사용되고 있다. 뇌의 수축 정도와 관련하여 다양한 지표가 있으며, 그 지표를 획득하기 위한 일 예로 두개골 내부 부피 분석(Intracranial Volume Analysis, ICV Analysis)이 치매 진단과 관련된 보조 지표를 제공하는데 사용되고 있다. 다만, 종래의 두개골 내부 부피 분석은, 대상체의 대상 이미지를 표준 뇌 모델에 정합시키는 방법을 사용하였다. 다만, 표준 뇌 모델에 대상체의 대상 이미지를 정합하는 방식은, 인종 간의 표준 뇌 모델의 차이가 존재하여 인종을 고려한 부피 분석이 제대로 반영되지 않아 부정확할 수 있다는 문제가 존재하였다. 또한, 개인별 두뇌 구조를 표준 뇌 모델에 정합시킴에 따라, 개인의 두뇌에 대한 특성을 반영하는 부피 분석에는 한계가 존재한다는 문제가 존재하였다. With respect to brain-related diseases, particularly dementia, the degree of brain contraction is indexed and used as an auxiliary index for diagnosing dementia. There are various indicators related to the degree of brain contraction, and an intracranial volume analysis (ICV Analysis) is used to provide an auxiliary indicator related to the diagnosis of dementia as an example to obtain the indicators. However, in the conventional analysis of the internal volume of the skull, a method of matching the target image of the subject to a standard brain model was used. However, there was a problem that the method of matching the target image of the object to the standard brain model could be inaccurate because the volume analysis considering race was not properly reflected due to differences in the standard brain model between races. In addition, as the individual brain structure is matched to the standard brain model, there is a problem that there is a limit to the volume analysis that reflects the characteristics of the individual brain.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 대상 이미지를 표준 뇌 모델에 정합하지 않고, 대상 이미지의 세그멘테이션을 수행하여 대상체의 두개골과 그 내부 영역을 획득할 수 있으며, 이에 기초한 두개골 내부 부피 분석의 정확도가 개선될 수 있다는 유리한 효과를 제공할 수 있다. The
이하에서는 도 48 내지 도 57을 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 부피 분석 방법을 구체적으로 서술한다. Hereinafter, a volume analysis method implemented by the
도 48을 참고한다. 도 48은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 분석 방법의 일 동작을 도시한 흐름도이다. 구체적으로 도 48은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 뇌의 형태학적 지표를 획득하는 동작을 도시한 흐름도이다.See FIG. 48 . 48 is a flowchart illustrating an operation of an image analysis method implemented by the
본 출원의 일 실시예에 따른 이미지 분석 방법은 이미지를 획득하는 단계(S4100); 이미지의 전처리 단계 및 이미지 정렬 단계(S4200), 이미지 세그멘테이션 단계(S4300) 및 형태학적 지표를 획득하는 단계(S4400)를 포함할 수 있다. An image analysis method according to an embodiment of the present application includes: acquiring an image (S4100); It may include a pre-processing step of the image, an image alignment step (S4200), an image segmentation step (S4300), and a step (S4400) of obtaining a morphological index.
이미지를 획득하는 단계(S4100)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 대상 이미지를 획득할 수 있다. In the step of acquiring an image ( S4100 ), the
이미지의 전처리 및 이미지의 정렬 단계(S4200)에서는, 상술한 이미지의 전 처리 동작들이 수행될 수 있다. 예를 들어, 이미지의 전처리 및 이미지의 정렬 단계(S4200)에서, 이미지 분석 장치(2000)는 대상 이미지의 형식의 변환, 이미지의 노이즈 제거 혹은 이미지의 인텐시티(intensity) 보정과 같은 대상 이미지의 전 처리 동작을 수행하도록 구현될 수 있다. In the image pre-processing and image alignment step ( S4200 ), the above-described image pre-processing operations may be performed. For example, in the image pre-processing and image alignment step ( S4200 ), the
또한, 이미지의 전처리 및 이미지의 정렬 단계(S4200)에서는, 도 5 내지 도 6과 관련하여 상술한, 이미지의 정렬 동작들이 수행될 수 있다. 대상 이미지를 정렬함으로써, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 신경망 모델의 학습 데이터의 이미지의 방향과 대응되는 방향을 가진 대상 이미지를 신경망 모델에 입력할 수 있어, 통일된 기준 하에 분석 결과를 도출할 수 있다.In addition, in the image pre-processing and image alignment step S4200, the image alignment operations described above with reference to FIGS. 5 to 6 may be performed. By aligning the target image, the
일 예로, 이미지 분석 장치(2000)는 대상 이미지에 대하여 메타데이터(metadata)로서 구조화된 뇌 이미지의 방향(orientation)과 관련된 데이터에 기초하여 이미지의 방향을 정렬하는 동작을 수행하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 대상 이미지의 메타 데이터를 이용하여, 촬영된 뇌 이미지를 대상체의 좌우(left, right), 전후(anterior, posterior), 상하(superial, inferior)에 대하여 일치시키는 이미지 정렬 동작을 수행할 수 있다. As an example, the
다른 예로, 이미지 분석 장치(2000)는, 이미지의 정렬 동작의 한 방법으로서 대상 이미지의 공간 정규화를 수행하도록 구현될 수 있다. 구체적으로 이미지 분석 장치(2000)는 뇌 템플릿에 기초하여 대상 이미지의 공간 정규화를 수행하도록 구현될 수 있다. 보다 구체적으로 이미지 분석 장치(2000)는 대상 이미지를 뇌 템플렛에 정합함으로써 대상 이미지의 공간적 분포를 인공 신경망 모델에 대하여 최적의 상태가 되도록 대상 이미지의 좌표를 변환하고, 대상 이미지를 정렬할 수 있다. As another example, the
일 예로, 이미지 분석 장치(2000)는 대상 이미지 내의 특징 영역을 기초로 하여 대상 이미지를 정렬하는 동작을 수행하도록 구현될 수 있다. As an example, the
도 49를 참고한다. 도 49는 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 이미지 정렬 방법의 예시적인 도면이다.See FIG. 49 . 49 is an exemplary diagram of an image alignment method implemented by the
예를 들어, 도 49를 참고하면, 뇌 이미지에는 전측 교련(anterior commissure, AC)과 후측 교련(posterior commissure, PC)에 대응되는 특징 영역이 존재할 수 있다. 이때, 이미지 분석 장치(2000)는 전측 교련(AC)과 후측 교련(PC)을 연결하는 AC-PC 라인을 기준으로 대상 이미지의 공간 정렬(spatial alignment) 동작을 수행하도록 구현될 수 있다. For example, referring to FIG. 49 , feature regions corresponding to an anterior commissure (AC) and a posterior commissure (PC) may exist in the brain image. In this case, the
예를 들어, 제1 이미지는 제1 방향에서 촬영되었으며, 제2 이미지는 제2 방향에서 촬영되었으며, 제3 이미지는 제3 방향에서 촬영되었을 수 있다. 랜덤한 방향에서 촬영이 되었기 때문에 이미지 획득 장치(1000)로부터 획득된 이미지들은 공간적으로 정렬이 되지 않은 상태일 수 있다. 이때, 이미지 분석 장치(2000)는 각 이미지들을 공간적으로 정렬함으로써 이미지의 방향을 통일시킬 수 있다.For example, the first image may be photographed in the first direction, the second image may be photographed in the second direction, and the third image may be photographed in the third direction. Since the images were taken in a random direction, the images acquired from the
예컨대, 제1 이미지는 전측 교련(AC1)과 후측 교련(PC1)을 연결하는 AC-PC 라인(L1)이 제1 방향으로 향하는 상태로 획득될 수 있으며, 제2 이미지는 전측 교련(AC2)과 후측 교련(PC2)을 연결하는 AC-PC 라인(L2)이 제2 방향으로 향하는 상태로 획득될 수 있으며, 제3 이미지는 전측 교련(AC3)과 후측 교련(PC3)을 연결하는 AC-PC 라인(L3)이 제3 방향으로 향하는 상태로 획득될 수 있다. For example, the first image may be acquired with the AC-PC line L1 connecting the anterior commissure AC1 and the posterior commissure PC1 facing in the first direction, and the second image may be obtained with the anterior commissure AC2 and An AC-PC line (L2) connecting the posterior commissure (PC2) may be acquired in a state in which it is directed in the second direction, and the third image is an AC-PC line connecting the anterior commissure (AC3) and the posterior commissure (PC3). (L3) may be obtained in a state facing in the third direction.
이때, 이미지 분석 장치(2000)는 각 이미지들의 AC-PC 라인(L1, L2, L3)가 공간적으로 동일한 기준 방향을 향하도록 이미지를 정렬하도록 구현될 수 있다.In this case, the
예를 들어, 이미지 분석 장치(2000)는 제1 이미지가 획득된 AC-PC 라인(L1)을 기준 방향으로 하여, 제2 이미지와 제3 이미지를 정렬시킬 수 있다. For example, the
다른 예를 들어, 이미지 분석 장치(2000)는 사용자로부터 기준 방향에 대한 입력을 획득할 수 있으며, 사용자의 입력에 기초하여 제1 이미지, 제2 이미지 및 제3 이미지를 정렬할 수 있다. As another example, the
다만, 상술한 내용은 예시에 불과하며, 이미지 분석 장치(2000)가 분석할 대상 이미지의 방향을 통일시키도록 임의의 기준 방향에 대하여 대상 이미지를 정렬시킬 수 있다. However, the above description is only an example, and the target image may be aligned with respect to an arbitrary reference direction so that the
또한, 상술한 바에 따르면, 이미지 내의 특징 영역을 전측 교련, 후측 교련으로 설명하였으나 이는 예시에 불과하며, 대상 이미지의 공간 정렬을 수행하기 위한 임의의 적절한 특징 영역이 활용될 수 있을 것이다. 예를 들어, 두 안구의 중심과 두 안구의 중심을 연결한 라인이 동일한 방향을 향하도록 이미지를 정렬하도록 이미지 분석 장치(2000)가 구현될 수 있다.In addition, as described above, although the feature region in the image has been described as anterior commissure and posterior commissure, this is only an example, and any suitable feature region for performing spatial alignment of the target image may be utilized. For example, the
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 상술한 AC-PC 라인(혹은 평면)에 기초하여 생성된 템플릿에 대하여, 대상 이미지를 정합함으로써 대상 이미지를 정렬하도록 구현될 수 있다. 다시 말해 도 49와 관련하여 대상 이미지에 포함된 이미지들의 AC-PC 라인이 동일한 방향이 되도록 대상 이미지를 정렬하는 방식으로 설명하였으나, 이에 제한되지 않고 AC-PC 라인에 대한 정보가 포함된 표준 템플릿이 생성될 수 있으며, 대상 이미지를 표준 템플릿에 정합시킴으로써 대상 이미지를 정렬할 수도 있다. In addition, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지의 공간 정렬을 수행함으로써, 인공신경망을 이용하는 대상 이미지의 세그멘테이션 정확도를 향상시킬 수 있다. The
또한, 두개골 내부 부피 분석(Intracranial Volume Analysis, ICV Analysis)과 같은 부피 분석 시, 체적 값을 계산할 내부 영역을 정의해야 하는데, 일 실시예에 따른 이미지 분석 장치(2000)는 공통된 기준에 따라 정렬된 대상 이미지에 대하여 내부 영역을 정의하도록 구현될 수 있기 때문에 부피 분석의 재현성이나 정확도를 높일 수 있다. In addition, in the case of volume analysis such as intracranial volume analysis (ICV Analysis), it is necessary to define an internal region for calculating a volume value. Since it can be implemented to define an inner region for an image, the reproducibility or accuracy of volume analysis can be improved.
이미지 세그멘테이션 단계(S4300)에서, 이미지 분석 장치(2000)는, 도 7 내지 도 17과 관련하여 상술한 이미지 세그멘테이션 동작에 따라, 대상 이미지의 세그멘테이션을 수행할 수 있다. In the image segmentation step S4300 , the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 후술할 형태학적 지표의 일 예로서, 을 획득하도록 구현될 수 있다. 이때, 형태학적 지표를 계산하기 위하여는, 이미지 분석 장치(2000)는 대상 이미지로부터 적어도 타겟 요소에 대응되는 영역과 제2 내부 영역에 대응되는 영역을 획득하여야 한다.The
이때, 제2 내부 영역은 두개골의 내부 영역에 포함된 영역일 수 있다. 따라서, 이미지 분석 장치(2000)는 대상 이미지로부터 적어도 두개골에 대응하는 영역과 두개골의 내부 영역을 획득하도록 구현될 수 있다.In this case, the second internal region may be a region included in the internal region of the skull. Accordingly, the
또한, 이미지 분석 장치(2000)는 대상 이미지로부터 획득된 두개골의 내부 영역과 관련된 바운더리를 수정함으로써 제2 내부 영역을 획득할 수 있다. 이때, 두개골의 내부 영역과 관련된 바운더리를 수정하기 위하여 레퍼런스 영역이 기초가 될 수 있다. 따라서, 이미지 분석 장치(2000)는 대상 이미지로부터 레퍼런스 영역에 대응되는 영역을 획득하도록 구현될 수 있다. Also, the
따라서, 이미지 분석 장치(2000)의 세그멘테이션 동작에 의해 대상 이미지는 적어도 두개골 영역 및 타겟 요소에 대응되는 영역을 포함하는 복수의 영역으로 구획될 수 있다. 또한, 이미지 분석 장치(2000)의 세그멘테이션 동작에 의해 후술할 두개골의 내부 영역의 바운더리를 수정하기 위해 기준이 되는 레퍼런스 영역이 추가적으로 획득될 수 있다. Accordingly, the target image may be divided into a plurality of regions including at least a skull region and a region corresponding to the target element by the segmentation operation of the
일 예로, 두개골의 내부 영역의 바운더리를 수정하기 위해 기준이 되는 레퍼런스 영역은 소뇌에 대응되는 영역 혹은 목뼈(cervical vertebrae)에 대응되는 영역일 수 있다. 다만, 이는 예시에 불과하며 두개골의 내부 영역을 정의하기 위하여 필요에 따라 임의의 뇌 요소에 대응되는 영역을 레퍼런스 영역으로 획득할 수 있음은 자명하다. For example, the reference region as a reference for correcting the boundary of the inner region of the skull may be a region corresponding to the cerebellum or a region corresponding to the cervical vertebrae. However, this is only an example, and it is obvious that a region corresponding to an arbitrary brain element may be acquired as a reference region as needed to define the internal region of the skull.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 세그멘테이션에 의해 획득된 두개골 영역에 기초하여 두개골의 내부 영역을 획득할 수 있다.The
본 출원의 일 실시예에 따른 이미지 분석 방법에 따르면, 이미지 분석 장치(2000)는 형태학적 지표를 계산(S4400)할 수 있다. 이때, 형태학적 지표는 이미지로부터 획득될 수 있는 정략적인 정보 혹은 정성적인 정보를 포괄하는 정보로 해석될 수 있을 것이다. According to the image analysis method according to an embodiment of the present application, the
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 방법에 의하면, 형태학적 지표로서 뇌의 체적과 관련된 형태학적 지표를 획득될 수 있다. For example, according to the image analysis method according to an embodiment of the present application, a morphological index related to a brain volume may be obtained as a morphological index.
뇌의 체적과 관련된 형태학적 지표의 형태는 다양할 수 있다. The shape of the morphological indicators associated with the volume of the brain may vary.
예를 들어, 형태학적 지표는 NBV(Normalized brain parenchymal volume), RBPV(Regional Brain Parenchymal volume) 등을 포함할 수 있다. For example, the morphological index may include a normalized brain parenchymal volume (NBV), a regional brain parenchymal volume (RBPV), and the like.
다른 예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 방법에 의하면, ICV와 관련된 형태학적 지표를 계산하도록 구현될 수 있다. 이때, ICV와 관련된 형태학적 지표는 으로 정의될 수 있으며, ICV와 관련된 형태학적 지표는 뇌질환(예, 우울증, 치매) 진단의 보조 지표로 사용될 수 있다. For another example, according to the image analysis method according to an embodiment of the present application, it may be implemented to calculate a morphological index related to ICV. At this time, the morphological indicators related to ICV are It can be defined as , and morphological indicators related to ICV can be used as auxiliary indicators for diagnosing brain diseases (eg, depression, dementia).
이하에서는 정확도가 개선되고 개인화된 ICV와 관련된 형태학적 지표를 계산하기 위한 본 출원의 일 실시예에 따른 이미지 분석 방법을 중심으로 설명한다.Hereinafter, an image analysis method according to an embodiment of the present application for calculating a morphological index related to improved accuracy and personalized ICV will be mainly described.
형태학적 지표를 계산하는 단계(S4400)에서는, 이미지 분석 장치(2000)는, 두개골의 내부 영역의 바운더리를 수정하며, 수정된 바운더리에 기초하여 형태학적 지표를 계산하는 동작을 수행하도록 구현될 수 있다. In the step of calculating the morphological index ( S4400 ), the
이하에서는 도 50을 참고하여 형태학적 지표를 계산하는 단계(S4400)에 대하여 보다 구체적으로 서술한다. 도 50은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도를 나타낸 도면이며, 구체적으로 도 48의 상기 S4400 단계를 세분화한 도면이다.Hereinafter, the step of calculating the morphological index ( S4400 ) will be described in more detail with reference to FIG. 50 . FIG. 50 is a diagram illustrating a flowchart of an image analysis method according to an embodiment of the present application, and in detail, the step S4400 of FIG. 48 is subdivided.
도 50을 참고하면, 본 출원의 일 실시예에 따른 형태학적 지표를 계산하는 단계(S4400)는, 두개골의 제1 내부영역의 제1 바운더리를 획득하는 단계(S4410), 제1 바운더리를 수정하여 제2 바운더리를 갖는 제2 내부 영역을 획득하는 단계(S4420), 제2 내부 영역의 형태학적 체적값을 획득하는 단계(S4430), 타겟 요소에 대응되는 영역의 형태학적 체적 값을 획득하는 단계(S4440) 및 형태학적 체적 지표를 계산하는 단계(S4450)를 더 포함할 수 있다. Referring to Figure 50, the step of calculating the morphological index according to an embodiment of the present application (S4400), the step of obtaining the first boundary of the first internal region of the skull (S4410), by modifying the first boundary Obtaining a second internal region having a second boundary (S4420), acquiring a morphological volume value of the second internal region (S4430), acquiring a morphological volume value of a region corresponding to a target element (S4430) S4440) and calculating the morphological volume index (S4450) may be further included.
구체적으로, 형태학적 지표를 계산하는 단계(S4400)에서, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 획득된 두개골 영역에 기초하여 두개골의 제1 내부 영역 및 두개골의 제1 내부 영역에 대응되는 제1 바운더리를 획득할 수 있다. Specifically, in the step of calculating the morphological index (S4400), the
도 51을 참고한다. 도 51은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 일 예를 도시한 도면이다. See FIG. 51 . 51 is a diagram illustrating an example of a method of correcting the first boundary of the first inner region of the skull according to an embodiment of the present application.
도 51을 참고하면, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 획득된 두개골 영역(SR)에 기초하여 두개골의 제1 내부영역(IR1)을 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 획득한 두개골의 제1 내부영역(IR1)에 기초하여 두개골의 제1 내부영역(IR1)에 대응되는 제1 바운더리(BD1)를 획득할 수 있다. Referring to FIG. 51 , the
일 예로, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 뇌 척수액(CSF)에 대응되는 영역을 획득할 수 있으며, 뇌 척수액(CSF)에 대응되는 영역에 기초하여 두개골 영역을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 외부 바운더리를 두개골 영역의 내부 바운더리로 하여 두개골 영역을 획득할 수 있다. As an example, the
이때, 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 외부 바운더리를 제1 바운더리(BD1)로 획득할 수 있다. In this case, the
혹은, 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 내부 바운더리를 제1 바운더리(BD1)로 획득할 수 있다. Alternatively, the
다만, 상술한 제1 바운더리는 예시에 불과하며 이미지 분석 장치(2000)는 뇌 척수액(CSF)에 대응되는 영역의 외부 바운더리와 내부 바운더리의 사이의 임의의 영역들로 구성된 제1 바운더리(BD1)로 획득할 수 있다. However, the above-described first boundary is merely an example, and the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 획득된 두개골의 내부 영역(예, 제1 내부영역 혹은 후술할 제2 내부 영역)에 대응되는 바운더리를 스무딩하거나 보정할 수 있다. 구체적으로 획득된 두개골의 내부 영역에 대응되는 바운더리들이 선명하지 않거나 오차가 존재할 가능성이 존재할 수 있다. 따라서, 이미지 분석 장치(2000)는 획득된 두개골의 내부 영역에 대응되는 바운더리에 대응되는 바운더리를 스무딩하거나 바운더리와 관련된 오차를 보정할 수 있다.The
예컨대, 바운더리가 선명하지 않은 경우에는, 이미지 분석 장치(2000)는 상술한 이미지 전처리 기법 등과 같이 임의의 적절한 이미지의 인텐시티 보정 방법 및 스무딩 방법을 사용하도록 구현될 수 있다.For example, when the boundary is not clear, the
예컨대, 획득된 바운더리에 오차가 존재하는 경우에는, 이미지 분석 장치(2000)는 입력 모듈을 통하여 바운더리를 수정하는 사용자 입력을 획득할 수 있으며, 사용자 입력에 기초하여 바운더리를 수정하도록 구현될 수 있다. 혹은 이미지 분석 장치(2000)는 상술한 이미지 전처리 기법 등과 같이 임의의 적절한 노이즈 제거 방법 등을 사용하도록 구현될 수 있다. For example, when an error exists in the obtained boundary, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300)에서 획득된 레퍼런스 영역(RR)에 기초하여 두개골의 제1 내부영역(IR1)와 관련된 제1 바운더리(BD1)의 일부를 수정하는 동작을 수행할 수 있다. The
대상 이미지마다 이미지의 촬영 방식에 따라 획득된 이미지 내에 포함된 뇌에 대응되는 영역의 위치나 크기 등이 상이할 수 있다. For each target image, the location or size of a region corresponding to the brain included in the acquired image may be different according to a photographing method of the image.
예를 들어, 제1 촬영 방식에 의해 획득된 두개골의 제1 내부 영역이 포함하는 뇌 영역과 제2 촬영 방식에 의해 획득된 두개골의 제1 내부 영역이 포함하는 뇌 영역이 상이할 수 있다. For example, a brain region included in the first internal region of the skull acquired by the first imaging method may be different from a brain region included in the first internal region of the skull acquired by the second imaging scheme.
따라서, 질병 진단 보조에 유관한 정보를 제공하는데 필요한 영역을 포함하면서도 이미지의 촬영 방식에 영향을 받지 않는 바운더리 정의 방식이 필요하다. Therefore, there is a need for a boundary definition method that includes a region necessary to provide information related to disease diagnosis assistance and is not affected by an image capturing method.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 두개골의 제1 내부 영역에 대응되는 제1 바운더리의 일부를 수정할 수 있으며, 대상 이미지에 대하여 "공통된 기준"에 기초하여 제1 바운더리의 일부를 수정하는 동작을 수행할 수 있기 때문에 질병 진단 보조에 의미있는 정보를 획득할 수 있으며 대상 이미지마다 공통된 기준에 따라 질병 진단 보조 지표를 획득할 수 있다. The
이하에서는 도 51 및 도 52를 참고하여, 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 일 예를 서술한다. 도 52는 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법에 따라 획득된 제2 내부영역의 일 예를 도시한 도면이다. Hereinafter, an example of a method of correcting the first boundary of the first inner region of the skull according to an embodiment of the present application will be described with reference to FIGS. 51 and 52 . 52 is a diagram illustrating an example of a second internal region obtained according to a method of correcting a first boundary of a first internal region of a skull according to an embodiment of the present application.
상술한 이미지 세그멘테이션 단계(S4300)에서 획득된 제1 바운더리(BD1)는 3D의 바운더리일 수 있다. The first boundary BD1 obtained in the above-described image segmentation step S4300 may be a 3D boundary.
이때, 이미지 분석 장치(2000)는 질병 진단 보조에 의미 있는 정보를 제공하기 위한 필요 영역을 획득하기 위해, 3D인 제1 바운더리를 수정하기 위하여, 수정의 기준이 되는 기준 평면(혹은 2D 이미지 슬라이스, RP)를 획득할 수 있다. 또한, 기준 평면(RP)을 획득하기 위하여 이미지 분석 장치(2000)는 도 51 및 도 52에 도시된 바와 같이 시상면(Saggital plane) 이미지에 포함된 특징 영역을 이용할 수 있다. In this case, the
예컨대, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)과 관련된 기준 평면(RP)을 획득할 수 있다. 이미지 분석 장치(2000)는 대상 이미지로부터 레퍼런스 영역(RR)에 인접하는 기준 평면(RP)을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)을 정의하는 바운더리의 하부 가장자리(inferior edge)에 인접하는 평면을 기준 평면(RP)으로 획득할 수 있다. 기준 평면(RP)은 타겟 이미지의 횡평면(transverse plane)과 평행하고 시상면(Saggital plane)에 대하여 수직한 평면일 수 있다. 이때, 레퍼런스 영역(RR)은 소뇌에 대응되는 영역일 수 있다. For example, the
이미지 분석 장치(2000)는 획득한 기준 평면(RP)에 기초하여 제1 내부영역의 제1 바운더리의 일부를 수정하여 제2 바운더리(BD2)를 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 기준 평면(RP)의 하측(bottom side)에 위치하는 제1 바운더리(BD1)의 부분을 수정하고 기준 평면(RP)의 상측(upper side)에 위치하는 제1 바운더리(BD1)에 기초하여 제2 바운더리(BD2)를 획득할 수 있다. The
좀 더 구체적으로 이미지 분석 장치(2000)는 기준 평면(RP)의 하측에 위치하는 제1 바운더리의 부분을 상기 기준 평면(RP)에 포함된 기준선이나 기준면으로 대체함으로써, 제1 바운더리를 수정하도록 구현될 수 있다. More specifically, the
이미지 분석 장치(2000)는 제1 바운더리를 수정하여 제2 바운더리를 획득할 수 있으며, 제2 바운더리를 갖는 두개골의 제2 내부 영역을 획득할 수 있다. The
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 기준 평면(RP)에 기초하여 제1 바운더리(BD1)의 일부를 수정함으로써, 질병 진단 보조에 유관한 정보를 제공하는데 필요한 영역인 제2 내부 영역(BD2)을 획득할 수 있으며, 대상 이미지에 대하여 공통된 기준에 따라 획득된 제2 내부 영역(BD2)에 기초하여 형태학적 지표를 계산할 수 있기 때문에 질병 진단 보조에 의미있는 정보가 획득될 수 있다. The
도 52를 참고하면, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)에 인접하는 기준 평면(RP, 예, 레퍼런스 영역(RR)의 하부 가장자리(inferior edge)를 포함하는 기준 평면)을 기준으로 제1 바운더리(BD1)의 일부를 수정하여, 제2 바운더리(BD2)를 갖는 두개골의 제2 내부 영역(IR2)을 획득할 수 있다. 이때, 도 51과 비교하면, 기준 평면(RP)의 하측에 있는 제1 바운더리(BD1)의 부분이 기준 평면(RP)의 기준면으로 대체됨으로써, 제1 바운더리(BD1)가 수정된 것을 확인할 수 있다. 또한, 제1 바운더리(BD1)를 수정함으로써, 제2 바운더리(BD)를 갖는 제2 내부 영역(IR2)이 획득될 수 있다. Referring to FIG. 52 , the
도 51 및 52에서는 뇌 이미지 중 시상면(sagittal plane)과 관련된 뇌 이미지에 대하여만 두개골의 제1 내부 영역(IR)의 제1 바운더리(BD1)의 일부를 수정하는 예를 도시하였으나, 이미지 분석 장치(2000)는 뇌 이미지 중 관상면(coronal plane) 및 횡평면(transverse plane)과 관련된 뇌 이미지에 대하여도 대응되는 바운더리 수정 동작을 수행할 수 있다. 51 and 52 show an example of correcting a part of the first boundary BD1 of the first internal region IR of the skull only for a brain image related to a sagittal plane among brain images, but the image analysis apparatus (2000) may also perform a corresponding boundary correction operation on a brain image related to a coronal plane and a transverse plane among the brain images.
이하에서는 도 53을 참고하여, 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 다른 예를 서술한다. 도 53은 본 출원의 일 실시예에 따른 두개골의 제1 내부 영역의 제1 바운더리를 수정하는 방법의 다른 예를 도시한 도면이다. Hereinafter, another example of a method of correcting the first boundary of the first inner region of the skull according to an embodiment of the present application will be described with reference to FIG. 53 . 53 is a diagram illustrating another example of a method of correcting the first boundary of the first inner region of the skull according to an embodiment of the present application.
도 53을 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 목뼈(cervical vertebrae)에 대응되는 영역을 레퍼런스 영역(RR)으로 하여 두개골의 제1 내부영역(IR1)의 제1 바운더리(BD1)의 일부를 수정하도록 구현될 수 있다. Referring to FIG. 53 , the
일 예로, 이미지 분석 장치(2000)는 목뼈와 관련된 C1 영역을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 목뼈(cervical vertebrae)와 관련된 C1 영역에 기초하여 두개골의 제1 내부영역(IR1)의 제1 바운더리(BD1)의 일부를 수정할 수 있다. As an example, the
이미지 분석 장치(2000)는 대상 이미지로부터 제1 특징 영역 및 제2 특징 영역을 획득할 수 있다. 예를 들어, 제1 특징 영역은 전측 교련(AC)에 대응되는 영역일 수 있으며, 제2 특징 영역은 후측 교련(PC)에 대응되는 영역일 수 있다. The
이미지 분석 장치(2000)는 제1 특징 영역으로부터 제1 특징점을 산출하며, 제2 특징 영역으로부터 제2 특징점을 산출하도록 구현될 수 있다. The
예를 들어, 이미지 분석 장치(2000)는 제1 특징 영역일 수 있는 전측 교련(AC)에 대응되는 영역의 중심점이나 전측 교련(AC)에 대응되는 영역을 정의하는 바운더리에 포함된 상부 가장자리(Superior edge), 하부 가장자리(inferior edge) 등에 대응되는 영역에 기초하여 제1 특징점을 산출할 수 있다. 또한 이미지 분석 장치(2000)는 제2 특징 영역일 수 있는 후측 교련(PC)에 대응되는 영역의 중심점 혹은 후측 교련(PC)에 대응되는 영역을 정의하는 바운더리에 포함된 상부 가장자리(Superior edge), 하부 가장자리(inferior edge) 등에 대응되는 영역에 기초하여 제2 특징점을 산출할 수 있다. For example, the
또한, 이미지 분석 장치(2000)는 산출된 제1 특징점 및 제2 특징점에 기초하여 기준 평면을 획득할 수 있다. Also, the
예컨대, 이미지 분석 장치(2000)는, 시상면(Saggital) 상에서 전측 교련(AC)의 중심점과 후측 교련(PC)의 중심점에 기초하여 기준 방향을 획득할 수 있다. 예를 들어, 이미지 분석 장치(2000)는 전측 교련(AC)의 중심점과 후측 교련(PC)의 중심점을 연결하는 기준 방향을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는, 레퍼런스 영역(RR)에 인접하며 기준 방향과 평행한 기준 평면(P2)를 획득할 수 있다. For example, the
다른 예를 들어, 이미지 분석 장치(2000)는 전측 교련(AC)의 중심점과 후측 교련(PC)의 중심점을 포함하고, 시상면(Saggital)에 수직한 제1 평면(P1)을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 레퍼런스 영역(RR)에 인접하며 제1 평면(P1)과 평행한 기준 평면(P2)를 획득할 수 있다. As another example, the
이미지 분석 장치(2000)는 기준 평면(P2)에 기초하여 제1 내부영역의 제1 바운더리(B1)의 일부를 수정하여 제2 바운더리(BD2)를 획득할 수 있다. 예컨대, 이미지 분석 장치(2000)는 기준 평면(P2)의 하측(bottom side)에 위치하는 제1 바운더리(BD1)의 부분을 수정하고 기준 평면(P2)의 상측(upper side)에 위치하는 제1 바운더리(BD1)에 기초하여 제2 바운더리(BD2)를 획득할 수 있다. The
좀 더 구체적으로 이미지 분석 장치(2000)는 기준 평면(P2)의 하측에 위치하는 제1 바운더리(BD1)의 부분을 상기 기준 평면(P2)에 포함된 기준선이나 기준면으로 대체함으로써, 제1 바운더리(BD1)를 수정하도록 구현될 수 있다More specifically, the
이미지 분석 장치(2000)는 수정된 제1 바운더리에 기초하여 제2 바운더리(BD2)를 획득할 수 있으며, 제2 바운더리(BD2)를 갖는 두개골의 제2 내부 영역(IR2)을 획득할 수 있다. The
도 53에서는 뇌 이미지 중 시상면(sagittal plane)과 관련된 뇌 이미지에 대하여만 두개골의 제1 내부 영역(IR)의 제1 바운더리(BD1)의 일부를 수정하는 예를 도시하였으나, 이미지 분석 장치(2000)는 뇌 이미지 중 관상면(coronal plane) 및 횡평면(transverse plane)과 관련된 뇌 이미지에 대하여도 대응되는 바운더리 수정 동작을 수행할 수 있다. 53 shows an example of correcting a part of the first boundary BD1 of the first internal region IR of the skull only for the brain image related to the sagittal plane among the brain images, but the image analysis apparatus 2000 ) may perform a corresponding boundary correction operation on a brain image related to a coronal plane and a transverse plane among the brain images.
또한, 도 53에서는 목뼈(cervical vertebrae)의 C1 영역에 기초하여 두개골의 제1 내부영역(IR1)의 제1 바운더리(BD1)의 일부를 수정하는 것으로 서술하였으나, 반드시 목뼈(cervical vertebrae)의 C1 영역에 기초하여 제1 바운더리(BD1)를 수정하는 것에 제한되지 않는다. 예를 들어 목뼈(cervical vertebrae)의 다른 영역들에 기초하여 제1 바운더리(BD1)를 수정할 수도 있으며, 뇌 이미지 내에 두드러지는 특징을 가진 영역에 기초하여 제1 바운더리(BD1)를 수정하도록 이미지 분석 장치(2000)가 구현될 수 있다. In addition, although it has been described in FIG. 53 that a part of the first boundary BD1 of the first internal region IR1 of the skull is corrected based on the region C1 of the cervical vertebrae, the C1 region of the cervical vertebrae must be corrected. It is not limited to modifying the first boundary BD1 based on . For example, the first boundary BD1 may be modified based on other regions of the cervical vertebrae, and the image analysis apparatus may modify the first boundary BD1 based on a region having prominent features in the brain image. (2000) can be implemented.
또한, 도 53에서는, 기준 평면(P2)을 전측 교련(AC) 및 후측 교련(PC)에 기초하여 획득된 제1 평면(P1)에 평행한 평면으로 예시하였으나, 이는 예시에 불과하며, 이미지 분석 장치(2000)는 대상 이미지의 횡평면(transverse plane)과 평행하며 C1 영역을 포함하는 평면을 기준 평면(P2)으로 획득할 수 있으며, 기준 평면(P2)에 기초하여 제1 바운더리(BD1)를 수정하도록 구현될 수 있다. In addition, in FIG. 53 , the reference plane P2 is illustrated as a plane parallel to the first plane P1 obtained based on the anterior commissure (AC) and the posterior commissure (PC), but this is only an example, and image analysis The
또한, 도 51 내지 도 53에 의하면, 이차원 이미지에 대하여 바운더리를 수정하는 것으로 도시되었으나, 이는 설명의 편의를 위한 것일 뿐, 3차원 이미지에 대하여 바운더리를 수정하여 내부영역을 획득하는 것으로 해석되어야 할 것이다. In addition, according to FIGS. 51 to 53, although it is shown that the boundary is corrected for the two-dimensional image, this is only for convenience of explanation, and should be interpreted as obtaining the inner region by correcting the boundary with respect to the three-dimensional image. .
다시 도 50을 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 방법은, 제2 내부 영역의 형태학적 체적값을 획득하는 단계(S4430)를 포함할 수 있다. Referring again to FIG. 50 , the image analysis method according to an embodiment of the present application may include acquiring a morphological volume value of the second inner region ( S4430 ).
구체적으로, 제2 내부 영역의 형태학적 체적값을 획득하는 단계(S4430)에서, 이미지 분석 장치(2000)는 획득한 제2 내부 영역에 기초하여 형태학적 체적값을 계산할 수 있다. 구체적으로 이미지 분석 장치(2000)는 제2 내부 영역에 대응되는 복셀 데이터에 기초하여 제2 내부 영역에 대응되는 형태학적 체적값을 획득할 수 있다. Specifically, in step S4430 of acquiring the morphological volume value of the second internal region, the
또한, 본 출원의 일 실시예에 따른 이미지 분석 방법은, 타겟 요소의 형태학적 체적값을 획득하는 단계(S4440)를 포함할 수 있다. Also, the image analysis method according to an embodiment of the present application may include obtaining a morphological volume value of the target element ( S4440 ).
구체적으로, 타겟 요소의 형태학적 체적값을 획득하는 단계(S4440)에서, 이미지 분석 장치(2000)는 이미지 세그멘테이션 단계(S4300) 단계에서 획득한 타겟 요소에 대응하는 영역에 기초하여, 타겟 요소와 관련된 형태학적 체적값을 계산할 수 있다. 구체적으로 이미지 분석 장치(2000)는 타겟 요소에 대응되는 복셀 데이터에 기초하여 타겟 요소에 대응되는 형태학적 체적값을 획득하도록 제공될 수 있다. Specifically, in the step S4440 of obtaining the morphological volume value of the target element, the
또한, 본 출원의 일 실시예에 따른 이미지 분석 방법은, 형태학적 지표를 계산하는 단계(S4450)를 포함할 수 있다. 구체적으로 형태학적 지표를 계산하는 단계(S4450)에서, 이미지 분석 장치(2000)는 상기 S4430 단계에서 획득된 제2 내부 영역에 대응되는 형태학적 체적 값과 상기 S4450 단계에서 획득된 타겟 요소에 대응되는 형태학적 체적 값에 기초하여 형태학적 지표를 계산할 수 있다. In addition, the image analysis method according to an embodiment of the present application may include calculating a morphological index ( S4450 ). Specifically, in the step of calculating the morphological index (S4450), the
일 예로, 형태학적 지표는 제2 내부 영역에 대응되는 형태학적 체적 값에 대한 타겟 요소에 대응되는 형태학적 체적 값의 비율로 정의되는 지표일 수 있다. For example, the morphological index may be an index defined as a ratio of a morphological volume value corresponding to a target element to a morphological volume value corresponding to the second inner region.
예를 들어, 형태학적 지표=일 수 있다. For example, morphological indicators = can be
또한, 계산된 형태학적 지표는 치매, 우울증, 뇌졸증 등과 관련된 뇌 질환과 관련된 진단 보조 지표로서 의미 있는 정보를 제공할 수 있다.In addition, the calculated morphological index may provide meaningful information as a diagnostic auxiliary index related to brain diseases related to dementia, depression, stroke, and the like.
도 48 및 도 50에는 도시되지 않았으나, 상기 S4430 단계에서 획득된 제2 내부영역에 대응되는 형태학적 체적 값과 상기 S4440 단계에서 획득된 타겟 요소에 대응되는 형태학적 체적 값 각각은, 스캔 조건과 관련된 보정 파라미터 혹은 타겟 요소의 위치와 관련된 보정 파라미터에 기초하여 보정될 수 있다. 이때, 이미지 분석 장치(2000)는 제2 내부영역에 대응되는 형태학적 보정 체적 값과 타겟 요소에 대응되는 형태학적 보정 체적 값에 기초하여 형태학적 지표를 최종적으로 계산하도록 구현될 수 있다. 이와 관련하여는, 도 58 내지 도 67과 관련하여 자세히 후술한다. Although not shown in FIGS. 48 and 50 , each of the morphological volume value corresponding to the second inner region obtained in step S4430 and the morphological volume value corresponding to the target element obtained in step S4440 is related to the scan condition. The calibration may be based on a calibration parameter or a calibration parameter related to the position of the target element. In this case, the
이하에서는 도 54 내지 도 57을 참고하여, 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들의 예시 및 그 정보들을 출력하기 위한 이미지 획득 장치(2000)의 동작을 설명한다. 도 54 내지 도 57은 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들을 도시한 예시적인 도면이다.Hereinafter, examples of information related to a morphological indicator output according to an embodiment of the present application and an operation of the
후술할 출력되는 형태학적 지표와 관련된 정보들은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)의 출력 모듈(2050) 혹은 출력 장치(2600)를 통하여 출력될 수 있다. Information related to output morphological indicators to be described later may be output through the
도 54를 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표와 관련된 정보는 전체 두개골 내 용적(ICV, Info. 1)을 포함할 수 있다. Referring to FIG. 54 , information related to a morphological index output from the
예를 들어, 전체 두개골 내 용적(ICV, Info. 1)은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)가 대상 이미지의 두개골의 내부 영역에 대응되는 복셀 데이터에 기초하여 획득한 체적 값일 수 있다. For example, the total intracranial volume (ICV, Info. 1) is a volume value obtained by the
이때, 상술한 바와 같이, 이미지 분석 장치(2000)는 두개골의 내부 영역을 정의하기 위하여 대상 이미지의 세그멘테이션 결과에 기초하여 획득된 두개골의 제1 내부영역의 제1 바운더리의 일부를 수정하여 제2 바운더리를 갖는 제2 내부영역을 획득할 수 있다. 이때, 바람직한 실시예에 따르면, 전체 두개 내 용적(ICV, Info. 1)은 제2 내부 영역에 대응되는 대상 이미지의 복셀 데이터에 기초하여 획득된 값일 수 있다. At this time, as described above, the
도 54를 다시 참고하면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표와 관련된 정보는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 및 형태학적 지표의 백분위 정보(Info. 4)를 포함할 수 있다. 다시 말해, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 및 형태학적 지표의 백분위(Info. 4)를 포함한 형태학적 지표와 관련된 정보를 출력할 수 있다. Referring back to FIG. 54 , the information related to the morphological index output from the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 정보는 타겟 요소는 뇌에 위치하는 다양한 영역과 관련된 정보일 수 있다. 이때, 타겟 요소는 뇌 질환과 유의미하게 관련된 영역일 수 있다. 예를 들어, 타겟 요소는 치매와 같은 뇌 질환과 관련된 해마, 외측 뇌실, 전두엽, 측두엽, 두정엽, 후두엽, 편도체와 관련된 영역일 수 있다. The information output from the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지를 상술한 영역들을 포함하는 복수의 뇌 영역으로 세그멘테이션한 후, 각각의 영역에 대응되는 복셀 데이터에 기초하여 타겟 요소들의 각각의 부피 값(체적 값)을 획득하여 출력하도록 제공될 수 있다. The
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 획득된 타겟 요소들의 부피 값을 획득하고, 대상 이미지가 촬영된 스캔 조건 혹은 타겟 요소의 위치 등을 고려하여 타겟 요소들의 부피 값을 보정할 수 있다. In addition, the
이때, 도 54의 타겟 요소들의 부피(Info. 2)는 보정된 부피 값일 수 있다. In this case, the volume Info. 2 of the target elements of FIG. 54 may be a corrected volume value.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표(Info. 3)는 두개골의 내부 영역에 대응되는 체적과 타겟 요소에 대응되는 영역의 체적의 비율일 수 있다. 예를 들어, 도 54를 참고하면, 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표(Info. 3)는 전체 두개 내 용적(ICV, Info. 1)에 대한 타겟 요소들의 체적값(혹은 부피값, Info. 2)의 비율일 수 있다. The morphological index Info. 3 output from the
다만, 이는 예시에 불과하며, 체적에 제한되지 않고 임의의 적절한 뇌 질환과 관련된 형상, 길이, 두께 등과 관련된 형태학적 지표를 획득하여 출력하도록 이미지 분석 장치(2000)가 제공될 수 있을 것이다. However, this is only an example, and the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 형태학적 지표 데이터베이스를 획득하고, 이에 기초하여 대상체의 형태학적 지표의 백분위(Info. 4)를 획득할 수 있다. 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표의 백분위(Info. 4)는 비교 대상군의 형태학적 지표들에서 위치하는 대상체의 형태학적 지표(Info. 3)의 백분위와 관련된 정보일 수 있다. 이때, 비교 대상군은 대상 이미지의 대상체의 성별 혹은 나이를 고려하여 획득된 대상군일 수 있다. The
구체적으로, 이미지 분석 장치(2000)는, 비교 대상 뇌 이미지에 기초하여 획득된 형태학적 지표를 하나 이상 포함하는 형태학적 지표 데이터베이스를 이용하여, 대상체의 형태학적 지표의 백분위 정보를 획득할 수 있다. Specifically, the
예컨대, 이미지 분석 장치(2000)는, 형태학적 지표 데이터베이스로부터 획득된 ICV와 관련된 형태학적 값이나 형태학적 지표를 하나 이상 포함하는 ICV 데이터를 획득하고, 대상체의 대상 이미지에 기초하여 획득된 ICV와 관련된 형태학적 값이나 형태학적 지표의 ICV 데이터 상에서의 백분위를 획득할 수 있다.For example, the
일 예로, 이미지 분석 장치(2000)는 대상 이미지의 대상체의 성별 혹은 나이와 관련된 대상체의 정보를 획득하고, 대상체의 정보에 기초하여 형태학적 지표 데이터베이스를 획득할 수 있다. 형태학적 지표 데이터베이스는, 대상체의 정보와 유사한 특성(성별, 나이 등)을 가지는 비교 대상군의 뇌 이미지에 기초하여 획득된 하나 이상의 형태학적 지표를 포함할 수 있다.For example, the
이미지 분석 장치(2000)는, 획득된 형태학적 지표 데이터베이스를 이용하여, 대상체의 형태학적 지표의 백분위 정보를 획득할 수 있다. The
예컨대, 이미지 분석 장치(2000)는, 60대 남성의 뇌 이미지에 기초하여 획득된 ICV와 관련된 형태학적 값이나 형태학적 지표를 하나 이상 포함하는 ICV 데이터를 획득하고, 60대 남성인 대상체의 뇌 이미지에 기초하여 획득된 ICV 값과 관련된 형태학적 값이나 형태학적 지표의 ICV 데이터 상에서의 백분위를 획득할 수 있다.For example, the
다른 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지와 관련된 대상체의 정보(예, 나이 혹은 성별)를 획득하고, 데이터베이스 혹은 메모리(2020)에 저장된 복수의 뇌 이미지들 중에서 대상체의 정보를 고려하여 비교 대상군 뇌 이미지를 선별할 수 있다. As another example, the
이미지 분석 장치(2000)는 선별된 비교 대상군 뇌 이미지들로부터, 대상 이미지로부터 형태학적 지표를 획득한 동작과 유사한 동작을 통하여, 타겟 요소에 대응하는 ICV와 관련된 형태학적 값이나 형태학적 지표를 하나 이상 포함하는 ICV 데이터를 획득할 수 있다. The
이미지 분석 장치(2000)는 대상 이미지로부터 획득된 ICV 값과 관련된 형태학적 값이나 형태학적 지표와 비교 대상군 뇌 이미지들로부터 획득된 ICV 데이터를 비교하여 대상 이미지로부터 획득된 ICV 값과 관련된 형태학적 값이나 형태학적 지표의 ICV 데이터 상에서의 백분위를 계산할 수 있을 것이다. The
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 및 형태학적 지표의 백분위(Info. 4)와 관련된 정보들은 좌반구와 우반구에 대하여 개별적으로 각각 획득되어 출력될 수 있다. Information related to the volume (Info. 2), the morphological index (Info. 3), and the percentile (Info. 4) of the target elements output from the
다만, 도 54에 도시된 형태학적 지표와 관련된 정보들은 예시에 불과하며, 임의의 적절한 정보들이, 이미지 분석 장치(2000)로부터 추가적으로 획득되어 출력될 수 있음은 물론이다. However, the information related to the morphological index shown in FIG. 54 is only an example, and it goes without saying that any appropriate information may be additionally obtained and output from the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 타겟 요소들의 부피(Info. 2), 형태학적 지표(Info. 3) 혹은 형태학적 지표의 백분위(Info. 4)와 관련된 정보들은 임의의 적절한 그래프를 활용한 통계학적 기법으로 형태학적 지표와 관련된 정보들이 가공(processing)되어 출력될 수 있다. Information related to the volume (Info. 2), the morphological index (Info. 3), or the percentile (Info. 4) of the target elements output from the
이하에서는 도 55 내지 도 57을 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해, 형태학적 지표와 관련된 정보들이 가공되어 출력되는 예시적인 내용들을 서술한다. Hereinafter, exemplary contents in which information related to morphological indicators are processed and output by the
도 55를 참고하면, 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표와 관련된 정보는 형태학적 지표의 백분위(Info. 5), 형태학적 지표의 백분위에 대한 그래프(Info. 6, 7) 및 뇌 질환과 관련된 위험도(Info. 8)와 관련된 정보를 포함할 수 있다.Referring to FIG. 55 , information related to a morphological index output from the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표의 백분위(Info. 5)는 좌반구에 위치하는 타겟 요소와 우반구에 위치하는 타겟 요소에 대하여 획득된 수치일 수 있다. The percentile (Info. 5) of the morphological index output from the
예를 들어, 도 55를 참고하면, 전두엽, 측두엽, 두정엽, 후두엽, 대상회, 해마 및 시상에 대하여 획득된 형태학적 지표의 백분위 값이 시각적으로 출력될 수 있다. 이때, 좌반구에 위치하는 전두엽 등에 대한 형태학적 지표의 백분위와 우반구에 위치하는 전두엽 등에 대한 형태학적 지표의 백분위들이 함께 시각적으로 출력될 수 있다. For example, referring to FIG. 55 , percentile values of morphological indices obtained for the frontal lobe, temporal lobe, parietal lobe, occipital lobe, cingulate gyrus, hippocampus, and thalamus may be visually output. In this case, the percentiles of the morphological indices for the frontal lobe located in the left hemisphere and the percentiles of the morphological indexes for the frontal lobe located in the right hemisphere may be visually output together.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 형태학적 지표의 백분위에 대한 그래프(Info. 6, 7)는, 도 54와 관련하여 서술한, 대상체의 형태학적 지표(Info. 3)와 비교 대상군 뇌 이미지들로부터 획득된 형태학적 지표를 비교하여 계산된 대상체의 형태학적 지표의 백분위에 기초하여 생성될 수 있다. The graphs Info. 6 and 7 for percentiles of the morphological indices output from the
이때, 그래프는 형태학적 지표의 백분위를 시각적으로 표시하도록 제공될 수 있으며, 대상체의 형태학적 지표의 백분위가 어디에 분포하는지를 나타내는 백분위와 관련된 눈금자(Info. 7)를 포함할 수 있다. In this case, the graph may be provided to visually display the percentile of the morphological index, and may include a ruler (Info. 7) related to the percentile indicating where the percentile of the morphological index of the object is distributed.
또한, 그래프는 좌반구에 대한 형태학적 지표의 백분위와 우반구에 대한 형태학적 지표의 백분위를 구별되도록 표시하여 제공될 수 있다. In addition, the graph may be provided by displaying the percentiles of the morphological indices for the left hemisphere and the percentiles of the morphological indices for the right hemisphere to be distinguished.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)로부터 출력되는 뇌 질환과 관련된 위험도(Info. 8)와 관련된 정보는, 대상체의 형태학적 지표의 백분위에 기초하여 위험도가 계산될 수 있으며, 위험도에 따라 시각적으로 상이하게 출력되도록 제공될 수 있다. In the information related to the risk (Info. 8) related to brain disease output from the
구체적으로, 이미지 분석 장치(2000)는 뇌 질환과 관련된 위험도(Info. 8)와 관련하여, 형태학적 지표의 백분위에 대하여 미리 결정된 임계값이 설정되도록 제공될 수 있다. 이때, 미리 결정된 임계값은 위험도의 정도(예, 주의, 위험, 정상)에 따라 상이하게 미리 설정될 수 있다. Specifically, the
이때, 이미지 분석 장치(2000)는 대상체의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 작은 경우에는, 대상체가 뇌 질환이 존재할 수 있어 위험하다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어, 도 55를 참고하면, 이미지 분석 장치(2000)는 대상체의 좌반구, 우반구에 위치하는 해마의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 작아 위험하다고 판단할 수 있으며, 위험하다는 판단 결과에 기초하여 해마와 관련된 형태학적 지표의 백분위를 제1 색상(예, 빨간색)으로 출력하도록 구현될 수 있다. In this case, when the percentile of the morphological index of the object is smaller than a predetermined first threshold, the
또한, 이미지 분석 장치(2000)는 대상체의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 크며 미리 결정된 제2 임계값보다 작은 경우에는 대상체가 뇌 질환이 존재할 가능성이 어느정도 존재하여 주의가 필요하다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는, 대상체의 좌반구, 우반구에 위치하는 특정 타겟 요소의 형태학적 지표의 백분위가 미리 결정된 제1 임계값보다 크며 미리 결정된 제2 임계값보다 작은 경우에는, 주의가 필요하다고 판단하도록 구현될 수 있고, 주의가 필요하다는 판단에 기초하여 특정 타겟 요소의 형태학적 지표의 백분위를 제2 색상(예, 주황색)으로 출력하도록 구현될 수 있다. Also, when the percentile of the morphological index of the object is greater than the first predetermined threshold and less than the second predetermined threshold, the
다만, 상술한 위험도에 따라 상이한 색상으로 출력하는 것은 예시에 불과하며, 이에 제한되지 않고 임의의 적절한 방법을 활용하여 뇌 질환과 관련된 위험도와 관련된 정보를 제공하도록 이미지 분석 장치(2000)가 구현될 수 있음은 물론이다. However, outputting in different colors according to the risk level described above is only an example, and the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상 이미지로부터 획득된 대상체의 형태학적 지표와, 비교 대상군 뇌 이미지들로부터 획득된 형태학적 지표들과 관련된 정보를 제공하도록 구현될 수 있다. The
구체적으로, 도 55와 관련하여 상술한 바와 같이, 이미지 분석 장치(2000)는 대상 이미지의 대상체의 나이 혹은 성별을 포함하는 대상체의 정보에 기초하여, 형태학적 지표 데이터베이스로부터 비교 대상군의 형태학적 지표들을 획득할 수 있다. Specifically, as described above with reference to FIG. 55 , the
이때, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 정보에 따라 대상체의 형태학적 지표와 비교 대상군의 형태학적 지표를 시각적인 그래프의 형태로 출력하도록 구현될 있다. 이때, 대상체의 정보에 따른 비교 대상군의 형태학적 지표는 비교 대상군의 형태학적 지표들의 평균값 및 뇌 질환에 대한 위험도와 관련되어 미리 결정된 임계값들에 대응되는 비교 대상군들의 형태학적 지표들을 반영하여 출력되도록 구현될 수 있다.In this case, the
도 56을 참고한다. 도 56은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 출력되는 형태학적 지표와 관련된 정보들의 예시를 도시한 그래프이다. See FIG. 56 . 56 is a graph illustrating an example of information related to a morphological index output by the
일 예로, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 출력되는 형태학적 지표는 대상 이미지와 관련된 대상체의 정보(예, 나이 혹은 성별)에 따른 대상체의 형태학적 지표(Info. 9)로서 출력될 수 있다. For example, the morphological index output by the
이때, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 뇌질환과 관련된 정보를 제공하기 위하여 대상체의 형태학적 지표(Info. 9)와 함께 비교 대상군의 형태학적 지표들(Info. 10, Info. 11)을 추가적으로 출력하도록 구현될 수 있다.In this case, the
예를 들어, 이미지 분석 장치(2000)는 상술한 바와 같이, 대상체의 나이(예, 도 56의 79세)를 고려하여, 형태학적 지표 데이터베이스로부터 70대와 80대의 비교 대상군의 형태학적 지표 정보들을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 나이를 고려하여 획득된 비교 대상군의 형태학적 지표 정보의 평균값(Info. 10)을 획득하여 출력하도록 구현될 수 있다. For example, as described above, the
다른 예를 들어, 이미지 분석 장치(2000)는 상술한 바와 같이, 뇌질환과 관련된 위험도에 대한 정보를 제공하도록 비교 대상군들의 형태학적 지표들과 관련된 임계값들이 설정될 수 있다. 예를 들어, 대상체의 형태학적 지표의 백분위가 5% 미만에 해당하는 경우에는 위험하다는 판단을 하도록 이미지 분석 장치(2000)은 임계값이 미리 설정되도록 구현될 수 있다. 혹은 대상체의 형태학적 지표의 백분위가 5% 이상 10% 미만에 해당하는 경우에는 주의가 필요하다는 판단을 하도록 이미지 분석 장치(2000)은 임계값이 미리 설정되도록 구현될 수 있다. As another example, as described above, the
이때, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 뇌질환에 대한 위험도와 관련되어 미리 설정된 임계값에 대응되는 비교 대상군들의 형태학적 지표들(Info. 11)을 출력하도록 구현될 수 있다. 이때, 비교 대상군들의 형태학적 지표들(Info. 11)는, 대상체의 나이와 같은 대상체의 정보에 따라 출력될 수 있다. At this time, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체의 형태학적 지표의 백분위와 뇌질환에 대한 위험도와 관련되어 미리 설정된 임계값에 기초하여, 뇌 질환에 대한 위험도와 관련된 정보(Info. 12)를 출력하도록 제공될 수 있다. The
예를 들어, 대상체의 형태학적 지표의 백분위가 5% 미만에 해당하는 경우에는 위험하다는 판단을 하도록 이미지 분석 장치(2000)는 임계값이 미리 설정되도록 구현될 수 있다. 이때, 대상체의 형태학적 지표의 백분위가 5% 미만에 해당하는 경우에는 이미지 분석 장치(2000)는 대상체가 특정 뇌질환에 대하여 위험한 상태일 수 있다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어 도 56을 참고하면, 대상체의 형태학적 지표(Info. 9)가 제1 색상(예, 빨간색)으로 표시되어 출력되도록 이미지 분석 장치(2000)가 구현될 수 있다. For example, when the percentile of the morphological index of the object is less than 5%, the
혹은 대상체의 형태학적 지표의 백분위가 5% 이상 10% 미만에 해당하는 경우에는 주의가 필요하다는 판단을 하도록 이미지 분석 장치(2000)은 임계값이 미리 설정되도록 구현될 수 있다. 이때, 대상체의 형태학적 지표의 백분위가 5% 이상 및 10% 미만에 해당하는 경우에는 이미지 분석 장치(2000)는 대상체가 특정 뇌질환에 대하여 주의가 필요한 상태일 수 있다는 정보를 시각적으로 출력하도록 구현될 수 있다. 예를 들어, 대상체의 형태학적 지표(Info. 9)가 제2 색상(예, 주황색)으로 표시되어 출력되도록 이미지 분석 장치(2000)가 구현될 수 있다. Alternatively, when the percentile of the morphological index of the object is 5% or more and less than 10%, the
다만, 상술한 내용은 예시에 불과하며 이에 제한되지 않는다. 즉, 이미지 분석 장치(2000)는 임의의 적절한 방식을 이용하여 대상체의 뇌질환에 대한 위험도와 관련된 정보를 출력하도록 구현될 수 있다. However, the above-described content is merely an example and is not limited thereto. That is, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 3차원 구조 혹은 타겟 요소가 뇌 내부에 어디에 위치하는지에 대한 정보를 제공하기 위하여 3차원 뇌 정보와 관련된 정보를 시각적으로 출력하도록 제공될 수 있다. 이하에서는 도 57을 참고하여, 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들의 예시 및 그 정보들을 출력하기 위한 이미지 획득 장치(2000)의 동작을 설명한다.The
예를 들어, 이미지 분석 장치(2000)는 3차원 뇌 템플렛과 관련된 데이터를 추가적으로 획득할 수 있으며, 대상 이미지에 대한 세그멘테이션에 의해 획득된 타겟 요소와 대응되는 영역 및 3차원 뇌 템플렛에 관련된 데이터에 기초하여, 타겟 요소의 3차원 구조 혹은 타겟 요소가 뇌 내부에 어디에 위치하는지에 대한 정보를 시각적인 그래픽 형태(Info. 13)로 출력할 수 있다. For example, the
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 3차원 뇌 템플렛과 관련된 데이터 및 상술한 바에 따라 계산된 타겟 요소와 관련된 형태학적 지표의 백분위에 기초하여, 타겟 요소와 관련된 형태학적 지표의 백분위에 대한 정보를 3차원 뇌 템플렛에 오버레이(Info. 14)시켜 출력하도록 구현될 수 있다. 예를 들어, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소와 관련된 형태학적 지표의 백분위에 따라 상이한 색상을 3차원 뇌 템플렛에 오버레이시켜, 타겟 요소의 부피 위축도와 관련된 정보를 제공하도록 구현될 수 있다. In addition, the
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 사용자로부터 입력 모듈을 통하여 세부적인 형태학적 지표와 관련된 정보를 출력하기 위한 입력을 수신하고, 사용자의 입력에 대응되는 출력을 출력 모듈을 통하여 사용자에게 출력하도록 구현될 수 있다. 예를 들어, 도 57에 도시된 3차원 뇌 템플렛의 특정 뇌 영역에 대한 사용자의 입력이 획득되면, 이미지 분석 장치(2000)는 획득된 입력에 대응되는 특정 뇌 영역에 대한 형태학적 지표와 관련된 정보들(예, 도 54 내지 도 56에 도시된 정보들 등)을 출력하도록 제공될 수 있다. In addition, the
다만, 도 57에 도시된 형태학적 지표와 관련된 정보들은 예시에 불과하며, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 임의의 적절한 방법으로 타겟 요소와 관련된 형태학적 지표의 백분위에 대한 정보를 3차원적으로 제공하도록 구현될 수 있을 것이다. However, the information related to the morphological indices shown in FIG. 57 is merely an example, and the
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 대상체와 관련된 형태학적 지표와 관련된 정보들을 시간적인 변수에 따라 출력하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 제1 시점에서의 대상체로부터 획득된 형태학적 지표와 관련된 정보들(예, 도 54 내지 도 57에 도시된 정보들)과 제2 시점에서의 대상체로부터 획득된 형태학적 지표와 관련된 정보들(예, 도 54 내지 도 57에 도시된 정보들)을 출력하도록 구현될 수 있다. 특히, 뇌 질환과 관련되어 비교 대상 군과의 형태학적 지표를 비교하는 것도 중요하지만, 대상체의 형태학적 지표를 시간적 변수에 따라 분석하는 것도 중요할 수 있다. Also, the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 제1 시점에서의 대상체로부터 획득된 뇌 이미지로부터 상술한 이미지 분석 동작들을 통하여 제1 시점에서의 형태학적 지표와 관련된 정보들을 획득할 수 있으며, 제1 시점과는 상이한 제2 시점에서의 대상체로부터 획득된 뇌 이미지로부터 상술한 이미지 분석 동작들을 통하여 제2 시점에서의 형태학적 지표와 관련된 정보들을 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 제1 시점에서의 형태학적 지표와 관련된 정보들과 제2 시점에서의 형태학적 지표와 관련된 정보들은 다양한 통계 기법을 통하여 사용자에게 출력하도록 구현될 수 있다. The
다만, 도 54 내지 도 57와 관련하여 상술한 형태학적 지표와 관련된 정보들은 예시에 불과하며, 임의의 적절한 형태의 뇌 질환과 관련된 정보들이 임의의 적절한 방법으로 사용자에게 출력될 수 있을 것이다. However, the information related to the morphological indices described above with reference to FIGS. 54 to 57 is only an example, and any appropriate type of brain disease-related information may be output to the user by any suitable method.
뇌와 관련된 질환, 특히 치매와 관련하여 뇌의 수축 정도를 수치화한 지표가 치매 진단의 보조 지표로 사용되고 있다. 이때, 뇌의 수축 정도와 관련된 수치는 뇌 이미지가 촬영된 스캔 조건 혹은 타겟 요소의 위치에 따라 상이하게 측정될 수 있다. 여기에서 타겟 요소의 위치란 타겟 요소가 두개골 내부에 분포하는 위치를 의미할 수 있다.An index that quantifies the degree of brain contraction in relation to brain-related diseases, particularly dementia, is being used as an auxiliary index in the diagnosis of dementia. In this case, the numerical value related to the degree of contraction of the brain may be measured differently depending on the scan condition in which the brain image is taken or the location of the target element. Here, the position of the target element may mean a position where the target element is distributed inside the skull.
예를 들어, 동일한 대상체에 대하여 획득된 형태학적 지표, 즉 뇌의 수축 정도와 관련된 수치는 뇌 이미지가 촬영된 이미지 획득 장치의 자기장의 세기, 이미지 획득 장치의 제조사 혹은 이미지 획득 장치의 세팅 파라미터를 포함하는 스캔 조건에 의존할 수 있다. 구체적인 예를 들어, 동일한 대상체에 대하여 획득된 형태학적 지표가 자기장의 세기라는 변수에 따라 상이하게 측정될 수 있다. For example, the morphological index obtained for the same object, that is, the numerical value related to the degree of contraction of the brain, includes the strength of the magnetic field of the image acquisition device from which the brain image was taken, the manufacturer of the image acquisition device, or setting parameters of the image acquisition device may depend on the scanning conditions. As a specific example, the morphological indices obtained for the same object may be measured differently according to a variable called the strength of the magnetic field.
다른 예를 들어, 동일한 대상체에 대하여 획득된 형태학적 지표, 즉 타겟 요소의 수축 정도와 관련된 수치는 타겟 요소의 두개골 내에서의 위치에 따라 상이하게 측정될 수 있다. For another example, a morphological index obtained for the same object, that is, a numerical value related to the degree of contraction of the target element, may be measured differently depending on the location of the target element in the skull.
따라서, 형태학적 지표를 뇌 이미지가 촬영된 스캔 조건이나 타겟 요소의 위치에 따라 보정하는 것이 요구된다. Therefore, it is required to correct the morphological index according to the scan condition in which the brain image was taken or the location of the target element.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 뇌 이미지가 촬영된 스캔 조건이나 타겟 요소의 위치를 고려하여, 타겟 요소의 형태학적 값이나 형태학적 지표를 보정하는 동작을 수행하도록 구현될 수 있다. The
따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는, 뇌 질환과 관련된 뇌의 수축 정도와 관련된 형태학적 지표를 보다 정확하게 획득할 수 있으며, 보다 객관적인 형태학적 지표를 뇌 질환과 관련된 진단 보조 정보로 사용자에게 제공할 수 있다는 유리한 효과를 제공할 수 있다.Accordingly, the
이하에서는 도 58 내지 도 67을 참고하여, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 형태학적 수치의 보정 방법을 구체적으로 서술한다. 이하에서는 체적과 관련된 형태학적 수치를 중심으로 서술하나 이에 제한되지 않으며, 체적 이외의 뇌 질환의 지표가 될 수 있는 대상 부위의 형태, 두께, 길이 등 임의의 적절한 형태학적 특성에 대하여도 동일하게 보정 방법이 적용될 수 있다.Hereinafter, a method of correcting a morphological value implemented by the
도 58을 참고한다. 도 58은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 형태학적 수치의 보정 방법을 일 동작을 도시한 흐름도이다. 구체적으로 도 58은 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)에 의해 구현되는 뇌와 관련된 형태학적 값이나 뇌와 관련된 형태학적 지표를 보정하는 동작을 도시한 흐름도이다.See Figure 58. 58 is a flowchart illustrating an operation of a morphological numerical correction method implemented by the
본 출원의 일 실시예에 따른 형태학적 수치의 보정 방법은, 타겟 이미지 및 타겟 이미지의 스캔 조건을 획득하는 단계(S5100); 타겟 이미지의 세그멘테이션 단계(S5200) 및 뇌 형태학적 지표를 보정하는 단계(S5300)를 포함할 수 있다. A method of correcting a morphological value according to an embodiment of the present application includes: obtaining a target image and a scan condition of the target image (S5100); It may include the step of segmenting the target image (S5200) and the step of correcting the brain morphological index (S5300).
타겟 이미지 및 타겟 이미지의 스캔 조건을 획득하는 단계(S5100)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 타겟 이미지를 획득할 수 있다. 타겟 이미지는 이미지 분석 장치(2000)로부터 분석될 뇌 이미지를 포괄하는 의미일 수 있다. 다시 말해, 타겟 이미지는 이미지 분석 장치(2000)로부터 타겟 요소의 형태학적 값이나 형태학적 지표가 계산될 대상 뇌 이미지를 포괄할 수 있다. In operation S5100 of acquiring the target image and the scan condition of the target image, the
또한, 타겟 이미지 및 타겟 이미지의 스캔 조건을 획득하는 단계(S5100)에서, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)로부터 타겟 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다. 타겟 이미지가 촬영된 스캔 조건과 관련된 정보는 상술한 바와 같이, 타겟 이미지에 대하여 메타데이터로서 구조화되어, 타겟 이미지를 이미지 획득 장치(1000)로부터 획득함으로써 함께 획득될 수 있다. 혹은 타겟 이미지가 촬영된 스캔 조건과 관련된 정보는 타겟 이미지와는 별개로 임의의 외부 장치로부터 획득될 수 있다. In addition, in step S5100 of acquiring the target image and the scan condition of the target image, the
타겟 이미지의 세그멘테이션 단계(S5200)에서, 이미지 분석 장치(2000)는, 도 7 내지 도 17과 관련하여 상술한 이미지 세그멘테이션 동작에 따라, 타겟 이미지의 세그멘테이션을 수행할 수 있다. In the segmentation of the target image ( S5200 ), the
일 예에 따르면, 이미지 분석 장치(2000)의 세그멘테이션 동작을 통하여, 타겟 이미지에 포함되는 적어도 하나의 타겟 요소를 획득할 수 있다. According to an example, at least one target element included in the target image may be acquired through the segmentation operation of the
또한, 이미지 분석 장치(2000)의 세그멘테이션 동작에 의해 후술할 두개골의 내부 영역을 획득할 수 있다. 두개골의 내부 영역을 획득하기 위하여 이미지 분석 장치(2000)는 도 48 및 도 57과 관련하여 상술한, 두개골의 제1 내부 영역의 제1 바운더리의 일부를 수정하여 제2 바운더리를 갖는 두개골의 제2 내부 영역을 획득하는 동작을 수행하도록 구현될 수 있다.Also, an inner region of the skull, which will be described later, may be acquired by the segmentation operation of the
또한, 이미지 분석 장치(2000)에 제공되는 신경망 모델은 스캔 조건에 따라 뇌 이미지를 세그멘테이션을 수행하도록 학습될 수 있다. 예를 들어, 제1 스캔 조건 하에서 획득된 뇌 이미지를 포함하는 학습 데이터로부터 학습된 제1 신경망 모델이 제1 스캔 조건 하에서 획득된 타겟 이미지를 세그멘테이션하도록 제공될 수 있다. 다른 예를 들어, 제2 스캔 조건 하에서 획득된 뇌 이미지를 포함하는 학습 데이터로부터 학습된 제2 신경망 모델이 제2 스캔 조건 하에서 획득된 타겟 이미지를 세그멘테이션하도록 제공될 수 있다. Also, the neural network model provided to the
도 58에 의하면, 타겟 이미지의 전처리 및 타겟 이미지의 정렬 단계는 도시되어 있지 않지만, 도 48과 관련하여 서술한 이미지의 전처리 및 이미지의 정렬 단계(S4200)에서의 이미지 분석 장치(2000)의 동작들이 동일하게 적용될 수 있다. Referring to FIG. 58, although the pre-processing of the target image and the alignment of the target image are not shown, the operations of the
이하에서는 도 59를 참고하여 뇌 형태학적 지표를 보정하는 단계(S5300)의 일 실시예에 대하여 보다 구체적으로 서술한다. 도 59는 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도를 나타낸 도면이며, 구체적으로 도 58의 상기 S52600 단계를 세분화한 도면이다.Hereinafter, an embodiment of the step ( S5300 ) of correcting the brain morphological index will be described in more detail with reference to FIG. 59 . 59 is a view showing a flowchart of an image analysis method according to an embodiment of the present application, and in detail, the step S52600 of FIG. 58 is subdivided.
도 59를 참고하면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 세그멘테이션 결과에 기초하여 타겟 요소의 형태학적 값을 획득하는 단계(S5310), 보정 파리미터를 획득하는 단계(S5320), 형태학적 값 및 보정 파라미터에 기초하여 형태학적 보정값을 획득하는 단계(S5330) 및 형태학적 보정 값을 기초로 뇌 형태학적 지표를 획득 및 출력하는 단계(S5340)를 더 포함할 수 있다. Referring to FIG. 59 , the step of correcting the brain morphological index according to an embodiment of the present application (S5300), obtaining the morphological value of the target element based on the segmentation result (S5310), obtaining the correction parameter Further comprising the step of (S5320), obtaining a morphological correction value based on the morphological value and the correction parameter (S5330), and obtaining and outputting a brain morphological index based on the morphological correction value (S5340) can do.
세그멘테이션 결과에 기초하여 타겟 요소의 형태학적 값을 획득하는 단계(S5310)에서, 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 타겟 요소에 대응되는 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 타겟 요소와 관련된 형태학적 값을 획득할 수 있다. 혹은 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 두개골의 내부 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 두개골의 내부 영역과 관련된 형태학적 값을 획득할 수 있다.In operation S5310 of acquiring the morphological value of the target element based on the segmentation result, the
또한, 세그멘테이션 결과에 기초하여 타겟 요소의 형태학적 값을 획득하는 단계(S5310)에서, 이미지 분석 장치(2000)는, 타겟 요소와 관련된 형태학적 값과 두개골의 내부 영역과 관련된 형태학적 값에 기초하여 타겟 요소와 관련된 형태학적 지표를 획득할 수 있다. In addition, in the step of obtaining the morphological value of the target element based on the segmentation result ( S5310 ), the
이때, 타겟 요소의 형태학적 값이나 뇌 형태학적 지표는 타겟 요소의 부피, 두께, 길이 및 형태 등을 포함하는 형태학적 특성(morphological character)와 관련된 수치일 수 있다. In this case, the morphological value or brain morphological index of the target element may be a numerical value related to a morphological character including the volume, thickness, length, and shape of the target element.
보정 파리미터를 획득하는 단계(S5320)에서, 이미지 분석 장치(2000)는, 파라미터 획득 장치(2400)으로부터 보정 파라미터를 획득하여 타겟 요소와 관련된 형태학적 값 혹은 두개골의 내부 영역과 관련된 형태학적 값을 보정하는 동작을 수행하도록 구현될 수 있다. In the step of acquiring the correction parameter ( S5320 ), the
또는, 보정 파리미터를 획득하는 단계(S5320)에서, 이미지 분석 장치(2000)는, 파라미터 획득 장치(2400)으로부터 보정 파라미터를 획득하여 타겟 요소와 관련된 형태학적 지표를 보정하는 동작을 수행하도록 구현될 수 있다. 즉, 도 59에 따르면, 타겟 요소의 형태학적 값에 대하여 보정 파라미터를 적용하여 보정하는 것으로 도시하였으나, 이는 예시에 불과하며 이에 제한되지 않고 타겟 요소의 형태학적 값 및 두개골의 내부 영역과 관련된 형태학적 값에 기초하여 계산된 뇌 형태학적 지표에 대하여 보정 파라미터를 적용하여 출력하도록 이미지 분석 장치(2000)가 구현될 수 있다. Alternatively, in the step of acquiring the correction parameter ( S5320 ), the
이때, 파라미터 획득 장치(2400)는 스캔 조건 혹은 타겟 요소의 위치에 따른 형태학적 값과 관련된 상관관계 분석을 통하여 보정 파라미터들을 획득할 수 있다. 보정 파리미터를 획득하는 단계(S5320)와 관련한 보정 파라미터 획득 장치(2400)의 동작에 대하여는, 도 60 내지 도 65와 관련하여 자세히 후술한다. In this case, the
형태학적 값 및 보정 파라미터에 기초하여 형태학적 보정값을 획득하는 단계(S5330)에서, 이미지 분석 장치(2000)는, 타겟 요소에 대응되는 형태학적 값과 보정 파라미터 획득 장치(2400)로부터 획득한 보정 파라미터에 기초하여 타겟 요소와 관련된 형태학적 보정값을 획득하는 동작을 수행하도록 구현될 수 있다. In step S5330 of obtaining a morphological correction value based on the morphological value and the correction parameter, the
보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하거나 추정하기 위한 파라미터일 수 있다.The correction parameter may be a parameter for approximating or estimating the morphological value related to the target element obtained under the first scan condition to the morphological value obtained under the second scan condition.
예컨대, 이미지 분석 장치(2000)는, 타겟 요소에 대응되는 형태학적 값 및 보정 파라미터 획득 장치(2400)로부터 획득된 변환 함수에 포함된 보정 파라미터에 기초하여, 타겟 요소와 관련된 형태학적 보정값을 획득할 수 있다. For example, the
이때, 변환 함수는 임의의 n차 함수일 수 있으며, 보정 파라미터는 변환 함수에 포함된 계수를 의미할 수 있다. In this case, the transform function may be an arbitrary nth-order function, and the correction parameter may mean a coefficient included in the transform function.
예컨대, 보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 타겟 요소와 관련된 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a*x+b라면, a와 b가 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하거나 추정하기 위한 보정 파라미터일 수 있다. 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지로부터 획득된 타겟 요소와 관련된 형태학적 값에 보정 파라미터(a)를 곱하고, 보정 파라미터(b)를 더함으로써, 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하거나 추정할 수 있다. For example, the correction parameter is obtained from a transformation function obtained through correlation analysis between a first morphological value related to the target element obtained under the first scan condition and a second morphological value related to the target element obtained under the second scan condition. can be For example, if the first-order function obtained through the correlation analysis between the first morphological value and the second morphological value is y=a*x+b, a and b are the values of the target element obtained under the first scan condition. It may be a correction parameter for approximating or estimating the morphological value to the morphological value obtained under the second scan condition. The
한편, 타겟 이미지로부터 획득된 타겟 요소의 위치에 따라 타겟 요소의 형태학적 측정값과 형태학적 참값(혹은 형태학적 기준값)에 대한 차이가 상이할 수 있다. 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 위치를 고려하여 타겟 요소의 형태학적 측정값을 보정할 수 있다, Meanwhile, the difference between the morphological measurement value of the target element and the morphological true value (or morphological reference value) may be different according to the location of the target element obtained from the target image. The
예를 들어, 이미지 분석 장치(2000)는 제1 뇌 요소의 형태학적 측정값을 제1 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제1 보정 파라미터를 획득할 수 있다.For example, the
반면, 이미지 분석 장치(2000)는 제2 뇌 요소의 형태학적 측정 값을 제2 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제2 보정 파라미터를 획득할 수 있다.On the other hand, the
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 스캔 조건 및 타겟 요소의 위치와 관련된 변수를 모두 고려하여 보정 파라미터를 획득할 수 있다. Also, the
예컨대, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지의 제1 뇌 요소과 관련된 형태학적 값에 대하여는 제1 보정 파라미터를 이용하여 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다. 반면, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지의 제2 뇌 요소과 관련된 형태학적 값에 대하여는 제2 보정 파라미터를 이용하여 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다.For example, the
예를 들어, 제1 뇌 요소와 관련하여 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a1*x+b1라면, a1와 b1가 제1 스캔 조건 하에서 획득된 제1 뇌 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다. 반면, 제2 뇌 요소와 관련하여 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a2*x+b2라면, a2와 b2가 제1 스캔 조건 하에서 획득된 제2 뇌 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다.For example, if the first-order function obtained through correlation analysis between the first morphological value and the second morphological value in relation to the first brain element is y=a1*x+b1, then a1 and b1 are the first scans It may be a correction parameter for approximating the morphological value of the first brain element obtained under the condition to the morphological value obtained under the second scan condition. On the other hand, if the first-order function obtained through the correlation analysis between the first morphological value and the second morphological value in relation to the second brain element is y=a2*x+b2, a2 and b2 under the first scan condition It may be a correction parameter for approximating the obtained morphological value of the second brain element to the obtained morphological value under the second scan condition.
이미지 분석 장치(2000)는 제1 스캔 조건 하에서 획득된 타겟 이미지로부터 획득된 제1 뇌 요소와 관련된 형태학적 값에 보정 파라미터(a1)를 곱하고, 보정 파라미터(b1)를 더함으로써, 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다. 반면 제1 스캔 조건 하에서 획득된 타겟 이미지와 관련된 제2 뇌 요소에 대하여, 이미지 분석 장치(2000)는 제2 뇌 요소와 관련된 형태학적 값에 보정 파라미터(a2)를 곱하고, 보정 파라미터(b2)를 더함으로써, 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사할 수 있다.The
다만 상술한 변환 함수는 예시에 불과하며, 임의의 적절한 함수를 획득함으로써 스캔 조건을 고려한 형태학적 값의 보정이 수행될 수 있을 것이다. However, the above-described conversion function is merely an example, and by obtaining any suitable function, the correction of the morphological value in consideration of the scan condition may be performed.
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 다양한 스캔 조건 하에서 획득된 값들에 기초하여 일관된 스캔 조건 하에서 획득된 값으로 형태학적 값을 근사할 수 있으며, 이를 통하여 일관성 있는 뇌질환과 관련된 진단 보조 지표를 제공할 수 있다. The
또한, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 위치를 고려하여 보정 파라미터를 상이하게 획득하여 보정을 수행할 수 있기 때문에 보다 정확한 뇌질환과 관련된 진단 보조 지표를 제공할 수 있다.In addition, since the
형태학적 보정 값을 기초로 뇌 형태학적 지표를 획득 및 출력하는 단계(S5340)에서, 이미지 분석 장치(2000)는, 타겟 요소와 관련된 제1 형태학적 보정값과 두개골의 내부 영역과 관련된 제2 형태학적 보정값에 기초하여 뇌 형태학적 지표를 계산하여 출력하도록 구현될 수 있다. In the step of acquiring and outputting the brain morphological index based on the morphological correction value ( S5340 ), the
일 예로, 뇌 형태학적 지표는 제2 형태학적 보정 값에 대한 제1 형태학적 보정 값으로 정의될 수 있다. 다만, 이는 예시에 불과하며, 뇌질환과 관련된 임의의 적절한 진단 보조 지표로 뇌 형태학적 지표가 정의될 수 있다.As an example, the brain morphological index may be defined as a first morphological correction value with respect to the second morphological correction value. However, this is only an example, and a brain morphological index may be defined as any suitable diagnostic auxiliary index related to a brain disease.
한편, 타겟 요소가 복수 개일 수 있다. 다시 말해, 타겟 요소가 제1 뇌 요소 및 제2 뇌 요소를 포함할 수 있다. Meanwhile, there may be a plurality of target elements. In other words, the target element may include a first brain element and a second brain element.
이때, 이미지 분석 장치(2000)는 타겟 이미지를 세그멘테이션하여 제1 뇌 요소에 대응되는 제1 영역, 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 획득할 수 있다. 또한, 이미지 분석 장치(2000)는 두개골 영역에 기초하여 두개골의 내부 영역을 획득할 수 있다.In this case, the
이때, 이미지 분석 장치(2000)는 상술한 바와 같이 보정 파라미터 및 제1 영역의 복셀 데이터에 기초하여 제1 뇌 요소와 제1 보정된 형태학적 값을 계산할 수 있으며, 보정 파라미터 및 제2 영역의 복셀 데이터에 기초하여 제2 뇌 요소와 제2 보정된 형태학적 값을 계산할 수 있다. 또한, 이미지 분석 장치(2000)는 두개골의 내부 영역에 대응되는 복셀 데이터에 기초하여 두개골의 내부 영역과 관련된 기준 형태학적 값을 획득할 수 있으며, 이 값은 뇌 형태학적 지표를 계산하는 데 기준이 될 수 있다. 이때, 제1 뇌 요소와 관련된 보정 파라미터와 제2 뇌 요소와 관련된 보정 파라미터는 상이할 수 있다. 이와 관련하여는 도 64와 관련하여 후술한다. In this case, as described above, the
이미지 분석 장치(2000)는 제1 보정된 형태학적 값 및 기준 형태학적 값에 기초하여 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 계산할 수 있다. 또한, 이미지 분석 장치(2000)는 제2 보정된 형태학적 값 및 기준 형태학적 값에 기초하여 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 계산할 수 있다. The
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 이미지의 대상체의 나이 및 성별 등을 포함한 특성을 고려하여 타겟 이미지로부터 획득된 형태학적 값을 보정하기 위한 보정 파라미터를 결정할 수 있다. The
예를 들어, 타겟 이미지가 성별 및 나이와 관련된 제1 특성을 가지는 제1 대상체로부터 획득되었을 경우, 이미지 분석 장치(2000)는 타겟 이미지로부터 획득된 형태학적 값을 보정하기 위한 보정 파라미터를, 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득된 보정 파라미터로 결정할 수 있다. 예컨대, 이미지 분석 장치(2000)는 타겟 이미지의 제1 대상체와 유사한 나이 및 동일한 성별을 가지는 제2 대상체로부터 획득된 보정 파라미터를 타겟 이미지로부터 획득된 형태학적 값이나 형태학적 지표를 보정하기 위한 보정 파라미터로 결정할 수 있다. For example, when the target image is obtained from a first object having a first characteristic related to gender and age, the
형태학적 보정 값을 기초로 뇌 형태학적 지표를 획득 및 출력하는 단계(S5340)에서, 이미지 분석 장치(2000)는 획득된 뇌 형태학적 지표와 관련된 정보를 출력 모듈(2050)이나 출력 장치(2600)에 포함된 출력 모듈(2650)를 통하여 출력할 수 있다. 구체적으로 이미지 분석 장치(2000)는 도 54 내지 도 57과 관련된 정보들을 유사하게 시각적으로 출력하도록 구현될 수 있다. In the step of obtaining and outputting the brain morphological index based on the morphological correction value ( S5340 ), the
한편, 도 59에 따르면, 타겟 요소와 관련된 형태학적 값에 대하여 보정을 한 후 타겟 요소와 관련된 뇌 형태학적 지표를 출력하는 것으로 도시하였으나, 타겟 요소와 관련된 형태학적 값에 기초하여 뇌 형태학적 지표를 계산한 후 보정 파라미터를 고려하여 뇌 형태학적 지표를 보정하여 출력하는 방식으로도 이미지 분석 장치(2000)와 파라미터 획득 장치(2400)가 구현될 수도 있다. On the other hand, according to FIG. 59 , although it is illustrated that the brain morphological index related to the target element is output after correcting the morphological value related to the target element, the brain morphological index is calculated based on the morphological value related to the target element. The
본 실시예에 따르면, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 촬영된 타겟 이미지의 타겟 요소와 관련된 영역에 대응되는 타겟 형태학적 값을, 제1 스캔 조건 이외의 제2 스캔 조건 혹은 제3 스캔 조건 하에서의 타겟 요소의 형태학적 추정값으로 계산할 수 있다. According to the present embodiment, the
따라서, 본 실시예에 따른 이미지 분석 장치(2000)는 타겟 형태학적 값을 보다 정확도가 높은 스캔 조건에 대응하는 형태학적 추정값으로 자유롭게 보정할 수 있어 정확도가 개선된 따른 형태학적 지표 정보들을 출력할 수 있다. Accordingly, the
이하에서는 도 60 내지 도 65를 참고하여, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)가 보정 파라미터를 획득하는 동작에 대하여 구체적으로 서술한다. Hereinafter, an operation in which the correction
도 60은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 구현되는 보정 파라미터의 획득 방법의 일 동작을 도시한 흐름도이다. 후술할 보정 파라미터는 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 획득될 수 있다. 다시 말해, 도 60에 개시된 보정 파라미터를 획득하는 동작은 보정 파라미터 획득 장치(2400)에 의해 구현될 수 있다. 60 is a flowchart illustrating an operation of a method of obtaining a correction parameter implemented by the
도 60을 참고하면, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 복수의 뇌 이미지 데이터 세트들을 획득하는 단계(S6100), 적어도 하나 이상의 데이터 세트의 스캔 조건에 따른 형태학적 값의 상관관계를 분석하는 단계(S6200) 및 상관관계 분석 결과에 기초하여 보정 파라미터를 획득하는 단계(S6300)를 포함할 수 있다. Referring to FIG. 60 , the method of obtaining a correction parameter according to an embodiment of the present application includes obtaining a plurality of brain image data sets ( S6100 ), and correlation of morphological values according to scan conditions of at least one data set. It may include a step of analyzing (S6200) and obtaining a correction parameter based on the correlation analysis result (S6300).
복수의 뇌 이미지 데이터 세트들을 획득하는 단계(S6100)에서, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 복수의 뇌 이미지 데이터 세트들을 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 복수의 뇌 이미지 데이터 세트들은 이미지 획득 장치(1000) 혹은 임의의 외부 장치로부터 획득할 수 있다. In the step of acquiring a plurality of brain image data sets ( S6100 ), the correction
도 61을 참고한다. 도 61은 본 출원의 일 실시예에 따른 복수의 뇌 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다. See FIG. 61 . 61 is an exemplary diagram for explaining information included in a plurality of brain image data sets according to an embodiment of the present application.
복수의 뇌 이미지 데이터 세트들은, 뇌 이미지와 관련된 타겟 요소에 대응되는 영역의 형태학적 수치 혹은 형태학적 지표에 관한 정보를 포함할 수 있다. The plurality of brain image data sets may include information about a morphological value or a morphological index of a region corresponding to a target element related to a brain image.
또한, 복수의 뇌 이미지 데이터 세트들, 뇌 이미지가 획득된 스캔 조건 혹은 타겟 요소의 위치에 대한 정보와 그 스캔 조건 혹은 타겟 요소의 위치와 관련하여 획득된 형태학적 수치 혹은 형태학적 지표에 관한 정보를 포함할 수 있다. In addition, information on a plurality of brain image data sets, information on the scan condition or the location of the target element under which the brain image was obtained, and information on morphological values or morphological indicators obtained in relation to the scan condition or the location of the target element may include
일 예로, 제1 데이터 세트는, 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1)로부터 계산된 제1 형태학적 수치(혹은 제1 형태학적 지표, V1)와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2)로부터 계산된 제2 형태학적 수치(혹은 제2 형태학적 지표, V2)와 관련된 정보를 포함할 수 있다. 또한, 제1 데이터 세트는 제3 스캔 조건 하에서 획득된 제3 뇌 이미지(IM3)로부터 계산된 제3 형태학적 수치(혹은 제3 형태학적 지표, V3)와 관련된 정보를 더 포함할 수 있다.For example, the first data set includes information related to a first morphological value (or a first morphological index, V1) calculated from the first brain image IM1 acquired under the first scan condition and information related to the second scan condition under the second scan condition. Information related to the second morphological value (or the second morphological index, V2) calculated from the acquired second brain image IM2 may be included. Also, the first data set may further include information related to a third morphological value (or a third morphological index, V3) calculated from the third brain image IM3 acquired under the third scan condition.
또한, 복수의 뇌 이미지 데이터 세트들은 제1 데이터 세트와 그 형태가 유사한 다양한 뇌 데이터들을 더 포함할 수 있다. 예를 들어, 제n 데이터 세트는, 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1n)로부터 계산된 제1 형태학적 수치(혹은 제1 형태학적 지표, V1n)와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2n)로부터 계산된 제2 형태학적 수치(혹은 제2 형태학적 지표, V2n)와 관련된 정보를 포함할 수 있다. 또한, 제n 데이터 세트는 제3 스캔 조건 하에서 획득된 제3 뇌 이미지(IM3n)로부터 계산된 제3 형태학적 수치(혹은 제3 형태학적 지표, V3n)와 관련된 정보를 더 포함할 수 있다.In addition, the plurality of brain image data sets may further include various types of brain data similar in shape to the first data set. For example, the n-th data set includes information related to a first morphological value (or a first morphological index, V1n) calculated from a first brain image IM1n acquired under the first scan condition and the second scan condition. information related to the second morphological value (or the second morphological index, V2n) calculated from the second brain image IM2n obtained under Also, the n-th data set may further include information related to a third morphological value (or a third morphological index, V3n) calculated from the third brain image IM3n acquired under the third scan condition.
바람직하게는, 복수의 뇌 이미지 데이터 세트들은, 동일한 대상체에 대하여 획득된 뇌 이미지들의 스캔 조건에 따른 형태학적 수치(혹은 형태학적 지표) 포함할 수 있다. 예를 들어, 도 61을 참고하면, 제1 데이터 세트에 포함된 제1 뇌 이미지(IM1), 제2 뇌 이미지(IM2) 및 제3 뇌 이미지(IM3)는 제1 대상체로부터 획득된 뇌 이미지들일 수 있다. 또한, 제n 데이터 세트에 포함된 제1 뇌 이미지(IM1n), 제2 뇌 이미지(IM2n) 및 제3 뇌 이미지(IM3n)는 제n 대상체로부터 획득된 뇌 이미지들일 수 있다.Preferably, the plurality of brain image data sets may include morphological values (or morphological indicators) according to scan conditions of brain images acquired for the same object. For example, referring to FIG. 61 , the first brain image IM1 , the second brain image IM2 , and the third brain image IM3 included in the first data set are brain images obtained from the first object. can Also, the first brain image IM1n, the second brain image IM2n, and the third brain image IM3n included in the n-th data set may be brain images obtained from the n-th object.
이때, 제1 스캔 조건 내지 제3 스캔 조건은 이미지 획득 장치의 이미지의 해상도와 관련되는 자기장의 세기(또는 자기장의 강도), 이미지 획득 장치에 설정될 수 있는, 생성되는 자기장의 형태와 관련된 세팅 파라미터, 이미지 획득 장치의 제조사의 종류 혹은 이들의 조합과 관련된 조건들일 수 있다. In this case, the first to third scan conditions are the strength of the magnetic field (or the strength of the magnetic field) related to the resolution of the image of the image acquisition device, and setting parameters related to the shape of the generated magnetic field that can be set in the image acquisition device , may be conditions related to the type of the manufacturer of the image acquisition device or a combination thereof.
한편, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 대상체의 특성을 고려한 데이터 세트를 이용하여 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는 하나 이상의 동일한 특성(예컨대, 나이 또는 성별)을 가지는 대상체들로부터 획득된 데이터 세트를 이용하여 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는, 타겟 이미지에 대응되는 대상체의 특성과 대응되는 특성을 가지는 데이터 세트에 기초하여 획득된 보정 파라미터가 타겟 이미지의 분석에 이용되도록, 하나 이상의 보정 파라미터를 이미지 분석 장치(2000)로 전달할 수 있다.Meanwhile, the correction
다시 도 60을 참고하면, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나의 데이터 세트의 스캔 조건과 형태학적 값의 상관관계를 분석하는 단계(S6200)를 포함할 수 있다. Referring back to FIG. 60 , the method of obtaining a correction parameter according to an embodiment of the present application may include analyzing a correlation between a scan condition of at least one data set and a morphological value ( S6200 ).
적어도 하나의 데이터 세트의 스캔 조건과 형태학적 값의 상관관계를 분석하는 단계(S6200)에서, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 복수의 뇌 이미지 데이터 세트들 중 적어도 하나 이상의 데이트 세트들에 포함된 스캔 조건에 따른 형태학적 수치(혹은 형태학적 지표) 간의 상관관계를 분석하도록 구현될 수 있다. 이때, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)에 의해 구현되는 상관관계의 분석은 선형 분석, 비선형 분석 및 회귀 분석 등 다양한 통계 기법을 활용하여 구현될 수 있다. In the step of analyzing the correlation between the scan condition of at least one data set and the morphological value ( S6200 ), the correction
본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 상관관계 분석 결과에 기초하여 보정 파라미터를 획득하는 단계(S6300)를 포함할 수 있다. The method of obtaining a correction parameter according to an embodiment of the present application may include obtaining a correction parameter based on a correlation analysis result ( S6300 ).
구체적으로, 보정 파라미터 획득 장치(2400)는, 복수의 뇌 이미지 데이터 세트들 중 적어도 하나 이상의 데이트 세트들에 포함된 제i 데이터 세트로부터, 제1 스캔 조건에서 획득된 제1 형태학적 수치(V1i), 제2 스캔 조건에서 획득된 제2 형태학적 수치(V2i) 및 제3 스캔 조건에서 획득된 제3 형태학적 수치(V3i)를 획득할 수 있다. Specifically, the correction
또한 보정 파라미터 획득 장치(2400)는, 제i 데이터 세트뿐만 아니라 임의의 제j 데이터 세트로부터, 제1 스캔 조건에서 획득된 제1 형태학적 수치(V1j), 제2 스캔 조건에서 획득된 제2 형태학적 수치(V2j) 및 제3 스캔 조건에서 획득된 제3 형태학적 수치(V3j)를 획득할 수 있다.In addition, the correction
이때, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 제i, j 데이터 세트로부터 획득된 제1 형태학적 수치 및 제2 형태학적 수치 간의 상관관계를 분석할 수 있으며, 상관관계 분석 결과에 기초하여 제1 스캔 조건 하에서 획득된 형태학적 수치와 제2 스캔 조건 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. In this case, the correction
또한, 보정 파라미터 획득 장치(2400)는 제i, j 데이터 세트로부터 획득된 제2 형태학적 수치 및 제3 형태학적 수치 간의 상관관계를 분석할 수 있으며, 상관관계 분석 결과에 기초하여 제2 스캔 조건 하에서 획득된 형태학적 수치와 제3 스캔 조건 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. Also, the correction
또한, 보정 파라미터 획득 장치(2400)는 제i, j 데이터 세트로부터 획득된 제1 형태학적 수치 및 제3 형태학적 수치 간의 상관관계를 분석할 수 있으며, 상관관계 분석 결과에 기초하여 제1 스캔 조건 하에서 획득된 형태학적 수치와 제3 스캔 조건 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. Also, the correction
예컨대, 보정 파라미터 획득 장치(2400)는 제1 스캔 조건 하에서 획득된 제1 형태학적 수치와 제2 스캔 조건 하에서 획득된 제2 형태학적 수치에 기초한 상관관계 분석을 통하여 제1 스캔 조건 하에서 획득된 형태학적 수치를 제2 스캔 조건 하에서 측정된 형태학적 수치로 변환하는 보정 파라미터를 획득할 수 있다. 혹은 제2 스캔 조건 하에서 획득된 형태학적 수치를 제1 스캔 조건 하에서 측정된 형태학적 수치로 변환하는 보정 파라미터를 획득할 수 있다. For example, the correction
예컨대, 보정 파라미터는 제1 스캔 조건 하에서 획득된 타겟 요소와 관련된 제1 형태학적 값과 제2 스캔 조건 하에서 획득된 타겟 요소와 관련된 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a*x+b라면, a와 b가 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제2 스캔 조건 하에서 획득된 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다. For example, the correction parameter is obtained from a transformation function obtained through correlation analysis between a first morphological value related to the target element obtained under the first scan condition and a second morphological value related to the target element obtained under the second scan condition. can be For example, if the first-order function obtained through the correlation analysis between the first morphological value and the second morphological value is y=a*x+b, a and b are the values of the target element obtained under the first scan condition. It may be a correction parameter for approximating the morphological value to the morphological value obtained under the second scan condition.
또한 보정 파라미터 획득 장치(2400)는, 상술한 바와 유사하게 상관관계 분석을 통하여, 제2 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제3 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터, 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제3 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터, 제2 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터 또는 제3 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값을 제1 스캔 조건 하에서 획득된 타겟 요소의 형태학적 값으로 근사하기 위한 보정 파라미터를 획득할 수 있다. Also, the correction
도 62 및 도 63을 참고한다. Reference is made to FIGS. 62 and 63 .
도 62는 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 일 예를 도시한 그래프이다. 62 is a graph illustrating an example of correlation analysis for acquiring a correction parameter of the correction
도 63은 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)의 보정 파라미터를 획득하기 위한 상관관계 분석의 다른 예를 도시한 그래프이다.63 is a graph illustrating another example of correlation analysis for obtaining a correction parameter of the
도 62를 참고하면, 보정 파라미터 획득 장치(2400)는 제i 데이터 세트로부터, 제1 자기장 강도(예, 1.5T) 하에서 획득된 형태학적 수치(예, 타겟 요소의 부피)와 제2 자기장 강도(예, 3T 혹은 8T) 하에서 획득된 형태학적 수치(예, 타겟 요소의 부피)를 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 도 62에 도시된 선형 분석과 같은 임의의 적절한 통계학적 기법을 활용한 상관관계 분석법에 의하여 제1 자기장 강도(예, 1.5T) 하에서 획득된 형태학적 수치와 제2 자기장 강도(예, 3T 혹은 8T) 하에서 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는 제1 자기장 강도 하에서 획득된 형태학적 수치를 제2 자기장 강도 하에서 획득된 형태학적 수치로 보정하기 위한 보정 파라미터를 획득할 수 있다.Referring to FIG. 62 , the correction
도 63을 참고하면, 보정 파라미터 획득 장치(2400)는 제j 데이터 세트로부터, 제1 제조사의 이미지 장치로부터 획득된 형태학적 수치(예, 타겟 요소의 부피)와 제2 제조사의 이미지 장치로부터 획득된 형태학적 수치(예, 타겟 요소의 부피)를 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 도 63에 도시된 선형 분석과 같은 임의의 적절한 통계학적 기법을 활용한 상관관계 분석법에 의하여 제1 제조사의 이미지 장치로부터 획득된 형태학적 수치와 제2 제조사의 이미지 장치로부터 획득된 형태학적 수치 간의 보정 파라미터를 획득할 수 있다. 보정 파라미터 획득 장치(2400)는 제1 제조사의 이미지 장치로부터 획득된 뇌 이미지로부터 획득된 형태학적 수치를 제2 제조사의 이미지 장치로부터 획득된 뇌 이미지로부터 획득된 형태학적 수치로 보정하기 위한 보정 파라미터를 획득할 수 있다.Referring to FIG. 63 , the correction
다만, 도 63 및 도 64에서 서술된 상관관계 분석은 예시에 불과하며, 비선형 분석 혹은 회귀분석 등 임의의 적절한 통계학적 기법을 활용하여 스캔 조건에 따른 형태학적 수치 간의 보정 파라미터를 획득할 수 있을 것이다. However, the correlation analysis described in FIGS. 63 and 64 is only an example, and any appropriate statistical technique such as nonlinear analysis or regression analysis may be used to obtain correction parameters between morphological values according to scan conditions. .
또한, 도 63 및 도 64는 스캔 조건으로서 각각 자기장 강도와 제조사의 변수를 고려한 형태학적 수치 간의 보정 파라미터를 획득하는 방법에 대하여 예시하였으나, 유사한 방식으로 이미지 장치의 세팅 파라미터와 관련된 스캔 조건을 고려하여 보정 파라미터를 획득할 수 있음은 자명하다. In addition, FIGS. 63 and 64 exemplify a method of obtaining a correction parameter between a morphological value in consideration of a magnetic field strength and a manufacturer's variable as a scan condition, respectively, but in a similar manner, considering the scan condition related to the setting parameter of the imaging device It is obvious that calibration parameters can be obtained.
또한, 자기장 강도와 관련된 스캔 조건, 제조사와 관련된 스캔 조건 및 이미지 장치의 세팅 파라미터와 관련된 스캔 조건 중 적어도 2 이상의 스캔 조건을 고려하여 스캔 조건에 따른 형태학적 수치 간의 보정 파라미터를 획득할 수 있음은 물론이다. In addition, correction parameters between morphological values according to scan conditions may be obtained by considering at least two scan conditions among scan conditions related to magnetic field strength, scan conditions related to manufacturers, and scan conditions related to setting parameters of the imaging device. am.
다시 도 60을 참고한다. 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나 이상의 데이터 세트의 스캔 조건에 따른 형태학적 값의 상관관계를 분석하는 단계(S6200)를 포함할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 스캔 조건 이외의 타겟 요소의 위치와 관련된 정보를 고려하여 상관관계 분석을 수행하여 보정 파라미터를 획득하도록 구현될 수 있다.Reference is again made to FIG. 60 . The method of obtaining a correction parameter according to an embodiment of the present application may include analyzing a correlation between morphological values according to scan conditions of at least one data set ( S6200 ). In this case, the correction
다시 말해, 스캔 조건이 동일하더라도 타겟 요소의 위치에 따라 형태학적 지표를 보정하기 위한 파라미터가 상이할 수 있는데, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는, 타겟 요소의 위치를 고려하여 형태학적 지표를 보정하기 위한 보정 파라미터를 획득하도록 구현될 수 있다. In other words, even if the scan conditions are the same, parameters for correcting the morphological index may be different depending on the location of the target element. It may be implemented to obtain a correction parameter for correcting the morphological index in consideration.
구체적으로 타겟 이미지로부터 획득된 타겟 요소의 위치에 따라 타겟 요소의 형태학적 측정값과 형태학적 참값(혹은 형태학적 기준값)에 대한 차이가 상이할 수 있다. 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 타겟 요소의 위치를 고려하여 타겟 요소의 형태학적 측정값을 보정할 수 있다, Specifically, the difference between the morphological measurement value and the morphological true value (or morphological reference value) of the target element may be different according to the location of the target element obtained from the target image. The
예를 들어, 이미지 분석 장치(2000)는 제1 뇌 요소의 형태학적 측정값을 제1 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제1 보정 파라미터를 획득할 수 있다. 반면 이미지 분석 장치(2000)는 제2 뇌 요소의 형태학적 측정값을 제2 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제2 보정 파라미터를 획득할 수 있다.For example, the
다른 예를 들어, 이미지 분석 장치(2000)는 제1 뇌 요소의 형태학적 측정값을 제1 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)으로 근사시키기 위하여 보정 파라미터 획득 장치(2400)로부터 제1 보정 파라미터를 획득할 수 있다. 반면, 이미지 분석 장치(2000)는 제2 뇌 요소의 형태학적 측정 값은 제2 뇌 요소의 형태학적 참값(혹은 형태학적 기준값)과 실질적으로 동일하다고 판단할 수 있으며 보정 파라미터 획득 장치(2400)로부터 제2 보정 파라미터를 획득하지 않도록 구현될 수 있다. For another example, the
다시 말해, 이미지 분석 장치(2000)는 타겟 요소의 위치에 따라 형태학적 측정값의 보정 여부를 다르게 수행하도록 구현될 수 있다. In other words, the
이때, 뇌 요소의 형태학적 측정 값과 뇌 요소의 형태학적 참값이 실질적으로 동일한 지를 판단하기 위한 임의의 형태의 임계값이 설정될 수 있다. In this case, an arbitrary threshold value for determining whether the morphological measurement value of the brain element is substantially the same as the true morphological value of the brain element may be set.
이하에서는 스캔 조건 이외의 타겟 요소의 위치와 관련된 정보를 더 고려함에 따라 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법에 대하여 변경되거나 추가되는 내용을 중심으로 서술한다. Hereinafter, as information related to the location of the target element other than the scan condition is further considered, the content that is changed or added with respect to the method of obtaining the correction parameter according to an embodiment of the present application will be mainly described.
복수의 뇌 이미지 데이터 세트들을 획득하는 단계(S6100)에서, 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 이미지 획득 장치(1000) 혹은 임의의 외부 장치로부터 복수의 뇌 이미지 데이터 세트들을 획득할 수 있다. 이때, 보정 파라미터 획득 장치(2400)는 데이터베이스 혹은 임의의 외부 장치로부터 복수의 뇌 이미지 데이터 세트들을 획득할 수 있다. In the step of acquiring the plurality of brain image data sets ( S6100 ), the correction
도 64를 참고한다. 도 64는 본 출원의 일 실시예에 따른 복수의 뇌 이미지 데이터 세트들이 포함하는 정보들을 설명하기 위한 예시적인 도면이다. See FIG. 64 . 64 is an exemplary diagram for explaining information included in a plurality of brain image data sets according to an embodiment of the present application.
복수의 뇌 이미지 데이터 세트들은, 뇌 이미지가 획득된 스캔 조건 및 타겟 요소의 위치에 따른 형태학적 수치 혹은 형태학적 지표에 관한 정보를 포함할 수 있다. The plurality of brain image data sets may include information on a morphological value or a morphological index according to a scan condition in which a brain image is obtained and a location of a target element.
일 예로, 제1 데이터 세트는, 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1)와 관련된 정보 및 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2)와 관련된 정보를 포함할 수 있다. 또한, 제1 데이터 세트는, 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1')와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2')와 관련된 정보를 포함할 수 있다. For example, the first data set includes information related to a morphological value (or morphological index, V1) calculated from a region corresponding to the first part of the first brain image IM1 acquired under the first scan condition and the first data set. Information related to a morphological value (or a morphological index, V2) calculated from a region corresponding to the second portion of the first brain image IM1 acquired under one scan condition may be included. In addition, the first data set includes information related to a morphological value (or morphological index, V1') calculated from a region corresponding to the first part of the second brain image IM2 acquired under the second scan condition and the second data set. Information related to a morphological value (or morphological index, V2') calculated from a region corresponding to the second portion of the second brain image IM2 acquired under the two-scan condition may be included.
또한, 복수의 뇌 이미지 데이터들을 제1 데이터 세트와 유사한 다양한 뇌 데이터들을 더 포함할 수 있다. 예를 들어, 제n 데이터 세트는, 제1 스캔 조건 하에서 획득된 제n 뇌 이미지(IMn)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1n)와 관련된 정보 및 제1 스캔 조건 하에서 획득된 제1 뇌 이미지(IM1n)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2n)와 관련된 정보를 포함할 수 있다. 또한, 제n 데이터 세트는, 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2n)의 제1 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V1n')와 관련된 정보 및 제2 스캔 조건 하에서 획득된 제2 뇌 이미지(IM2n)의 제2 부위에 대응되는 영역으로부터 계산된 형태학적 수치(혹은 형태학적 지표, V2n')와 관련된 정보를 포함할 수 있다. In addition, the plurality of brain image data may further include various brain data similar to the first data set. For example, the n-th data set includes information related to a morphological value (or morphological index, V1n) calculated from a region corresponding to the first region of the n-th brain image IMn acquired under the first scan condition, and Information related to a morphological value (or a morphological index, V2n) calculated from a region corresponding to the second region of the first brain image IM1n acquired under the first scan condition may be included. In addition, the n-th data set includes information related to a morphological value (or morphological index, V1n') calculated from a region corresponding to the first region of the second brain image IM2n acquired under the second scan condition and the second It may include information related to a morphological value (or morphological index, V2n') calculated from a region corresponding to the second region of the second brain image IM2n acquired under the two-scan condition.
이때, 제2 부위는 제1 부위와 비교하여 두개골에 인접하여 위치될 수 있다. 즉 제1 부위와 제2 부위는 두개골 내에서 서로 상이한 위치에 존재하는 뇌 요소일 수 있다. In this case, the second portion may be located adjacent to the skull compared to the first portion. That is, the first region and the second region may be brain elements present at different positions within the skull.
또한, 제1 부위와 제2 부위는 해부학적으로 구별될 수 있다. Also, the first region and the second region may be anatomically distinguished.
또는, 제1 부위와 제2 부위는 서로 상이한 기능을 수행할 수 있다. 다시 말해, 제1 부위는 제1 뇌 기능을 수행하는 뇌 요소인 반면, 제2 부위는 제2 뇌 기능을 수행하는 뇌 요소일 수 있다. Alternatively, the first site and the second site may perform different functions. In other words, the first region may be a brain element performing a first brain function, while the second region may be a brain element performing a second brain function.
다시 도 60을 참고하면, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나의 데이터 세트의 스캔 조건에 따른 형태학적 값의 상관관계를 분석하는 단계(S6200) 및 상관관계 분석 결과에 기초하여 보정 파라미터를 획득하는 단계(S6300)를 포함할 수 있다. Referring back to FIG. 60 , the method of obtaining a correction parameter according to an embodiment of the present application includes the step of analyzing the correlation of morphological values according to the scan condition of at least one data set ( S6200 ) and the correlation analysis result. It may include obtaining a correction parameter based on the step (S6300).
이때, 본 출원의 일 실시예에 따른 보정 파라미터의 획득 방법은 적어도 하나 이상의 데이터 세트의 스캔 조건 및 "타겟 요소가 분포하는 위치"에 따른 형태학적 값들에 기초하여 상관관계 분석을 수행할 수 있다. In this case, the method of obtaining the correction parameter according to an embodiment of the present application may perform correlation analysis based on morphological values according to the scan condition of at least one data set and the “location where the target element is distributed”.
도 65를 참고한다. 도 65는 본 출원의 일 실시예에 따른 타겟 요소의 위치에 따른 형태학적 값들 간의 상관관계 분석의 예시적인 도면이다. 이때, x축은 제1 스캔 조건에서 획득된 형태학적 수치이며, y축은 제2 스캔 조건에서 획득된 형태학적 수치일 수 있다. See FIG. 65 . 65 is an exemplary diagram of correlation analysis between morphological values according to the location of a target element according to an embodiment of the present application. In this case, the x-axis may be a morphological value obtained under the first scan condition, and the y-axis may be a morphological value obtained under the second scan condition.
일 예로, 도 65를 참고하면, 보정 파라미터 획득 장치(2400)는 임의의 제i 데이터 세트에 포함된 제1 부위(예, frontal lobe 영역)와 관련하여, 제1 스캔 조건 하(예, 1.5T)에서 촬영된 제i 뇌 이미지(IM1i)로부터 획득된 형태학적 수치(V1i) 및 제2 스캔 조건 하(예, 3T 혹은 8T)에서 촬영된 제i 뇌 이미지(IM2i)로부터 획득된 형태학적 수치(V1i')들에 기초하여 제1 부위에 대한 제1 보정 파라미터를 획득할 수 있다. As an example, referring to FIG. 65 , the correction
다른 예로, 도 65를 참고하면, 보정 파라미터 획득 장치(2400)는 임의의 제j 데이터 세트에 포함된 제2 부위(예, cerebellum 영역)와 관련하여, 제1 스캔 조건 하(예, 1.5T)에서 촬영된 제j 뇌 이미지(IM1j)로부터 획득된 형태학적 수치(V2j) 및 제2 스캔 조건 하(예, 3T 혹은 8T)에서 촬영된 제j 뇌 이미지(IM2j)로부터 획득된 형태학적 수치(V2j')들에 기초하여 제2 부위에 대한 제2 보정 파라미터를 획득할 수 있다. As another example, referring to FIG. 65 , the correction
이때, 제1 부위에 대한 제1 보정 파라미터와 제2 부위에 대한 제2 보정 파라미터는 상이할 수 있다. In this case, the first correction parameter for the first region and the second correction parameter for the second region may be different.
예컨대, 제1 보정 파라미터는 제1 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 수치를 제2 스캔 조건 하에서 측정된 제1 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다. 혹은 제1 보정 파라미터는 제2 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 수치를 제1 스캔 조건 하에서 측정된 제1 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다. For example, the first calibration parameter may include a parameter that approximates a morphological value related to the first site obtained under the first scan condition to a morphological value related to the first site measured under the second scan condition. Alternatively, the first correction parameter may include a parameter that approximates a morphological value related to the first site obtained under the second scan condition to a morphological value related to the first site measured under the first scan condition.
예컨대, 제1 보정 파라미터는 제1 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 값과 제2 스캔 조건 하에서 획득된 제1 부위와 관련된 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a1*x+b1라면, a1과 b1이 제1 스캔 조건 하에서 획득된 제1 부위의 형태학적 값을 제2 스캔 조건 하에서 획득된 제1 부위의 형태학적 값으로 근사하기 위한 파라미터일 수 있다. For example, the first correction parameter is obtained from a transformation function obtained through correlation analysis between a morphological value related to the first site obtained under the first scan condition and a morphological value related to the first site obtained under the second scan condition. can be For example, if the linear function obtained through the correlation analysis between the first morphological value and the second morphological value is y=a1*x+b1, a1 and b1 are the first regions obtained under the first scan condition. It may be a parameter for approximating the morphological value of α to the morphological value of the first site obtained under the second scan condition.
반면, 제2 보정 파라미터는 제1 스캔 조건 하에서 획득된 "제2 부위"와 관련된 형태학적 수치와 제2 스캔 조건 하에서 획득된 "제2 부위" 관련된 형태학적 수치에 기초한 상관관계 분석을 통하여, 제1 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 수치를 제2 스캔 조건 하에서 측정된 제2 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다. 혹은 제2 보정 파라미터는 제2 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 수치를 제2 스캔 조건 하에서 측정된 제2 부위와 관련된 형태학적 수치로 근사하는 파라미터를 포함할 수 있다. On the other hand, the second correction parameter is determined through correlation analysis based on the morphological value related to the “second site” obtained under the first scan condition and the morphological value related to the “second site” obtained under the second scan condition, It may include a parameter for approximating the morphological value related to the second site obtained under the first scan condition to the morphological value related to the second site measured under the second scan condition. Alternatively, the second correction parameter may include a parameter that approximates the morphological value related to the second site obtained under the second scan condition to the morphological value related to the second site measured under the second scan condition.
예컨대, 제2 보정 파라미터는 제1 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 값과 제2 스캔 조건 하에서 획득된 제2 부위와 관련된 형태학적 값 간의 상관관계 분석을 통하여 획득된 변환 함수로부터 획득될 수 있다. 예를 들어, 제1 형태학적 값과 제2 형태학적 값 간의 상관관계 분석을 통하여 획득된 1차 함수가 y=a2*x+b2라면, a2와 b2가 제1 스캔 조건 하에서 획득된 제2 부위의 형태학적 값을 제2 스캔 조건 하에서 획득된 제2 부ㅇ위의 형태학적 값으로 근사하기 위한 보정 파라미터일 수 있다. For example, the second correction parameter is obtained from a transformation function obtained through correlation analysis between a morphological value related to a second site obtained under the first scan condition and a morphological value related to a second site obtained under the second scan condition. can be For example, if the linear function obtained through the correlation analysis between the first morphological value and the second morphological value is y=a2*x+b2, then a2 and b2 are the second regions obtained under the first scan condition. It may be a correction parameter for approximating the morphological value of α to the morphological value of the second region obtained under the second scan condition.
또한 보정 파라미터 획득 장치(2400)는, 상술한 바와 유사하게 상관관계 분석을 통하여, 제2 스캔 조건 하에서 획득된 제1 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제1 부위의 형태학적 값으로 근사하기 위한 보정 파라미터, 제2 스캔 조건 하에서 획득된 제2 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제2 부위의 형태학적 값으로 근사하기 위한 보정 파라미터를 획득할 수 있다. In addition, the correction
또한 보정 파라미터 획득 장치(2400)는, 상술한 바와 유사하게 상관관계 분석을 통하여, 제1 스캔 조건 하에서 획득된 제1 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제1 부위의 형태학적 값으로 근사하기 위한 보정 파라미터, 제1 스캔 조건 하에서 획득된 제2 부위의 형태학적 값을 제3 스캔 조건 하에서 획득된 제2 부위의 형태학적 값으로 근사하기 위한 보정 파라미터를 획득할 수 있다. In addition, the correction
본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 타겟 요소의 위치에 대한 변수를 고려하여 보정 파라미터를 부위별로 보다 정확하게 획득할 수 있으며, 부위별로 스캔 조건에 따라 영항을 받는 형태학적 수치나 지표를 보상할 수 있다는 유리한 효과가 존재한다. The correction
따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 보다 정확하고 객관적인 뇌 질환과 관련된 형태학적 지표 및 뇌 질환 진단 보조 지표를 사용자에게 제공할 수 있다는 장점이 존재한다. Accordingly, the
추가적으로 본 출원의 일 실시예에 따른 보정 파라미터 획득 장치(2400)는 뇌의 좌반구, 우반구 모두에 존재하는 타겟 요소(예, 제1 뇌 요소 및 제2 뇌 요소)에 대하여 상술한 보정 파라미터 획득 동작을 각각 수행하도록 구현될 수 있다. Additionally, the correction
예를 들어, 도 65와 관련된 일 예에서는, 보정 파라미터 획득 장치(2400)는 좌반구에 위치하는 제1 부위(예, Frontal lobe)에 대하여 상관관계 분석을 수행하여 보정 파라미터를 획득할 수 있다. For example, in an example related to FIG. 65 , the correction
또한, 보정 파라미터 획득 장치(2400)는 우반구에 위치하는 제1 부위(예, Frontal lobe)에 대하여도 상관관계 분석을 수행하여 보정 파라미터를 획득하도록 구현될 수 있으며, 제1 부위에 대하여 획득된 보정 파라미터는 좌반구와 우반구에 따라 상이할 수 있다. In addition, the correction
한편, 이미지 분석 장치(2000)로부터 출력되는 타겟 요소와 관련된 형태학적 값이나 타겟 요소와 관련된 형태학적 지표를 이미지 분석 장치(2000)의 사용자가 목표하는 스캔 조건에 대응하는 형태학적 값이나 형태학적 지표로 수정할 필요성이 존재할 수 있다. 예를 들어, 출력되는 타겟 요소와 관련된 형태학적 값 등이 제1 스캔 조건 하에서 획득된 형태학적 값에 기초하여 획득된 값일 때, 사용자는 제1 스캔 조건이 아닌 제2 스캔 조건 하에서 획득된 형태학적 값에 대응하는 결과들로 타겟 요소와 관련된 형태학적 정보들을 출력받기를 원할 수 있다. On the other hand, the morphological value or morphological index related to the target element output from the
본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 입력 모듈을 통하여 사용자로부터 레퍼런스 스캔 조건과 관련된 입력을 획득할 수 있으며, 사용자 입력에 대응하는 타겟 요소와 관련된 형태학적 정보들을 출력하도록 구현될 수 있다. The
이하에서는 도 66을 참고하여, 레퍼런스 스캔 조건과 관련된 사용자의 입력에 기초하여 뇌 형태학적 지표를 보정하는 다른 실시예에 대하여 보다 구체적으로 서술한다. 도 66은 본 출원의 일 실시예에 따른 이미지 분석 방법의 흐름도를 나타낸 도면이며, 구체적으로 도 58의 상기 S5300 단계를 세분화한 도면이다.Hereinafter, with reference to FIG. 66 , another embodiment of correcting a brain morphological index based on a user input related to a reference scan condition will be described in more detail. FIG. 66 is a diagram illustrating a flowchart of an image analysis method according to an embodiment of the present application, and in detail, is a diagram in which step S5300 of FIG. 58 is subdivided.
도 66을 참고하면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 세그멘테이션 결과에 기초하여 타겟 요소의 타겟 형태학적 값을 획득하는 단계(S5410), 레퍼런스 스캔 조건을 획득하는 단계(S5420) 및 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)를 포함할 수 있다. Referring to FIG. 66 , the step of correcting the brain morphological index according to an embodiment of the present application ( S5300 ) includes obtaining a target morphological value of the target element based on the segmentation result ( S5410 ), reference scan condition It may include the step of obtaining (S5420) and the step of determining whether the scan condition of the target image and the reference scan condition correspond (S5430).
이때, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 타겟 형태학적 값을 기초로 뇌 형태학적 지표를 출력하는 단계(S5440)를 포함할 수 있다. At this time, if the scan condition of the target image and the reference scan condition correspond, the step of correcting the brain morphological index according to an embodiment of the present application ( S5300 ) is to output the brain morphological index based on the target morphological value. It may include step S5440.
한편, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다면, 본 출원의 일 실시예에 따른 뇌 형태학적 지표를 보정하는 단계(S5300)는, 보정 파라미터를 획득하는 단계(S5450), 타겟 형태학적 값 및 보정 파라미터에 기초하여 타겟 형태학적 보정값을 획득하는 단계(S5460) 및 타겟 형태학적 보정값을 기초로 뇌 형태학적 지표를 출력하는 단계(S5470)를 포함할 수 있다. On the other hand, if the scan condition of the target image and the reference scan condition do not correspond, correcting the brain morphology index according to an embodiment of the present application (S5300) includes obtaining a correction parameter (S5450), the target morphology The method may include obtaining a target morphological correction value based on the value and the correction parameter ( S5460 ) and outputting a brain morphological index based on the target morphological correction value ( S5470 ).
세그멘테이션 결과에 기초하여 타겟 요소의 타겟 형태학적 값을 획득하는 단계(S5410)에서, 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 타겟 요소에 대응되는 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 타겟 요소와 관련된 타겟 형태학적 값을 획득할 수 있다. In operation S5410 of acquiring the target morphological value of the target element based on the segmentation result, the
혹은 이미지 분석 장치(2000)는, 세그멘테이션 동작에 의해 획득된 두개골의 내부 영역과 관련된 타겟 이미지의 복셀 데이터에 기초하여 두개골의 내부 영역과 관련된 형태학적 값을 획득할 수 있다.Alternatively, the
또한, 세그멘테이션 결과에 기초하여 타겟 요소의 타겟 형태학적 값을 획득하는 단계(S5410)에서, 이미지 분석 장치(2000)는, 타겟 요소와 관련된 형태학적 값과 두개골의 내부 영역과 관련된 형태학적 값에 기초하여 타겟 요소와 관련된 타겟 요소의 뇌 형태학적 지표를 획득할 수 있다. In addition, in the step of obtaining the target morphological value of the target element based on the segmentation result ( S5410 ), the
이때, 타겟 형태학적 값이나 뇌 형태학적 지표는 부피, 두께, 길이 및 형태 등을 포함하는 형태학적 특성(morphological character)와 관련된 수치일 수 있다.In this case, the target morphological value or the brain morphological index may be a numerical value related to a morphological character including volume, thickness, length, and shape.
레퍼런스 스캔 조건을 획득하는 단계(S5420)에서, 이미지 분석 장치(2000)는, 이미지 분석 장치(2000)에 포함된 입력 모듈(2040)을 통하여 사용자의 레퍼런스 스캔 조건과 관련된 입력을 획득할 수 있다. 혹은 이미지 분석 장치(2000)는, 출력 장치(2600)의 입력 모듈(2640)을 통하여 사용자의 레퍼런스 스캔 조건과 관련된 입력을 획득할 수 있다. In the step of obtaining the reference scan condition ( S5420 ), the
혹은 레퍼런스 스캔 조건은 미리 설정되어 있을 수 있다. 이미지 분석 장치(2000)는 미리 설정된 레퍼런스 스캔 조건과 관련된 정보를 획득할 수 있다. Alternatively, the reference scan condition may be preset. The
이때, 레퍼런스 스캔 조건은 자기장 세기, 이미지 장치의 세팅 파라미터 혹은 이미지 장치의 제조사와 관련된 스캔 조건일 수 있다. 또는 레퍼런스 스캔 조건은 형태학적 지표를 획득하고자 하는 타겟 요소의 위치를 추가적으로 고려한 스캔 조건일 수 있다In this case, the reference scan condition may be a scan condition related to a magnetic field strength, a setting parameter of the imaging device, or a manufacturer of the imaging device. Alternatively, the reference scan condition may be a scan condition that additionally considers a location of a target element for which a morphological index is to be obtained.
이미지 분석 장치(2000)는 레퍼런스 스캔 조건을 획득함으로써, 레퍼런스 스캔 조건에 대응하는 타겟 요소의 형태학적 값이나 뇌 형태학적 지표를 출력하거나 보정할 수 있다. 예를 들어, 사용자는 레퍼런스 스캔 조건을 입력함으로써, 레퍼런스 스캔 조건 하에서 측정된 값으로 추정된 타겟 요소와 관련된 형태학적 값이나 뇌 형태학적 지표를 제공받을 수 있다. The
타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)에서, 이미지 분석 장치(2000)는 획득된 레퍼런스 스캔 조건과 타겟 이미지가 촬영된 스캔 조건이 대응되는지 여부를 판단할 수 있다. In the step of determining whether the scan condition of the target image and the reference scan condition correspond ( S5430 ), the
구체적으로, 이미지 분석 장치(2000)는 이미지 획득 장치(1000)나 혹은 임의의 외부 장치(예, 서버)로부터 타겟 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다. Specifically, the
예를 들어, 상술한 바와 같이, 타겟 이미지가 촬영된 스캔 조건이 타겟 이미지에 대하여 메타 데이터로서 구조화될 수 있으며, 이미지 분석 장치(2000)는 타겟 이미지가 촬영된 스캔 조건와 관련된 메타 데이터를 인식함으로써, 타겟 이미지가 촬영된 스캔 조건과 관련된 정보를 획득할 수 있다.For example, as described above, a scan condition in which a target image is captured may be structured as metadata with respect to the target image, and the
다른 예를 들어, 이미지 분석 장치(2000)는 타겟 이미지가 촬영된 스캔 조건을 입력 모듈을 통하여 사용자로부터 입력받아 타겟 이미지가 촬영된 스캔 조건을 획득할 수 있다. As another example, the
다른 예를 들어, 상술한 바와 같이, 타겟 이미지가 촬영된 스캔 조건과 관련된 정보는 임의의 외부 장치로부터 획득될 수 있다. For another example, as described above, information related to a scan condition in which a target image is captured may be obtained from an arbitrary external device.
이때, 이미지 분석 장치(2000)는 획득한 타겟 이미지가 촬영된 스캔 조건과 레퍼런스 스캔 조건이 대응하는지 여부를 판단할 수 있다. In this case, the
예를 들어, 타겟 이미지가 자기장 세기가 1.5T에서 촬영되었으며, 사용자로부터 레퍼런스 스캔 조건으로 자기장 세기 3T과 관련된 정보가 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다고 판단할 수 있다. For example, if the target image is photographed at a magnetic field strength of 1.5T and information related to a
반면, 타겟 이미지가 자기장 세기가 3T에서 촬영되었으며, 자기장 세기 3T과 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다고 판단할 수 있다.On the other hand, if the target image is photographed at a magnetic field strength of 3T and a reference scan condition related to the
다른 예를 들어, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제2 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다고 판단할 수 있다. As another example, if the target image is photographed by an image device manufactured by a first manufacturer and a reference scan condition related to the second manufacturer is obtained, the
반면, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제1 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다고 판단할 수 있다.On the other hand, if the target image was taken by the image device manufactured by the first manufacturer and the reference scan condition related to the first manufacturer is obtained, the
타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)에서, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다고 판단한다면, 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 획득한 타겟 요소의 타겟 형태학적 값을 기초로 뇌 형태학적 지표를 출력하도록 구현될 수 있다. (S5440) In the step of determining whether the scan condition of the target image and the reference scan condition correspond ( S5430 ), if the
다시 말해, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응된다면, 사용자가 제공받고자 하는 스캔 조건으로의 보정이 수행되지 않아도 무방하기에 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 획득한 타겟 요소의 타겟 형태학적 값을 기초로 뇌 형태학적 지표를 출력하도록 구현될 수 있다. In other words, if the scan condition of the target image and the reference scan condition are matched, the
반면, 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 단계(S5430)에서, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되지 않는다고 판단한다면, 이미지 분석 장치(2000)는 보정 파라미터 획득 장치(2400)로부터 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건에 대응되는 상관관계 분석에 기초하여 획득된 보정 파라미터를 획득하도록 구현될 수 있다. (S5450)On the other hand, in the step of determining whether the scan condition of the target image and the reference scan condition match ( S5430 ), if the
예를 들어, 타겟 이미지가 자기장 세기가 1.5T에서 촬영되었으며, 자기장 세기 3T과 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 자기장 세기가 1.5T에서 촬영된 제1 이미지로부터 획득된 제1 형태학적 값을 자기장 세기가 3T에서 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 보정 파라미터를 획득하도록 구현될 수 있다. 또는 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 획득된 보정 파라미터 데이터베이스로부터 자기장 세기가 1.5T에서 촬영된 제1 이미지로부터 획득된 제1 형태학적 값을 자기장 세기가 3T에서 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 파리미터를 보정 파라미터로 결정할 수 있다. For example, if the target image is photographed at a magnetic field strength of 1.5T, and a reference scan condition related to a magnetic field strength of 3T is obtained, the
다른 예를 들어, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제2 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 제1 제조사의 이미지 장치로 촬영된 제1 이미지로부터 획득된 제1 형태학적 값과 제2 제조사의 이미지 장치로 촬영된 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 보정 파라미터를 획득하도록 구현될 수 있다. 또는 이미지 분석 장치(2000)는, 보정 파라미터 획득 장치(2400)로부터 획득된 보정 파라미터 데이터베이스로부터 제1 제조사의 이미지 장치로 촬영된 제1 이미지로부터 획득된 제1 형태학적 값과 제2 제조사의 이미지 장치로 촬영된 촬영된 제2 이미지로부터 획득된 제2 형태학적 값으로 변환하거나 근사하는 파라미터를 보정 파라미터로 결정하도록 구현될 수 있다. As another example, if the target image is captured by an image device manufactured by a first manufacturer and a reference scan condition related to the second manufacturer is obtained, the
타겟 형태학적 값 및 보정 파라미터에 기초하여 타겟 형태학적 보정값을 획득하는 단계(S5460)에서, 이미지 분석 장치(2000)는 획득한 보정 파라미터 및 세그멘테이션 결과에 기초하여 획득한 타겟 요소의 타겟 형태학적 값에 기초하여 타겟 형태학적 보정값(혹은 보정된 타겟 형태학적 값)을 획득할 수 있다. In the step of obtaining the target morphological correction value based on the target morphological value and the correction parameter ( S5460 ), the
예를 들어, 타겟 이미지가 자기장 세기가 1.5T에서 촬영되었으며, 자기장 세기 3T과 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 1.5T에서 촬영된 뇌 이미지로부터 획득한 타겟 요소와 관련된 형태학적 값(혹은 형태학적 지표)을 3T에서 획득된 것에 대응될 수 있는 형태학적 값(혹은 형태학적 지표)으로 보정할 수 있는 제1 보정 파라미터를 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 타겟 이미지의 세그멘테이션 결과에 기초하여 획득한 타겟 요소와 관련된 타겟 형태학적 값(혹은 타겟 형태학적 지표)에 제1 보정 파라미터를 적용함으로써, 타겟 형태학적 보정값을 획득할 수 있다. For example, if the target image is photographed at a magnetic field strength of 1.5T and a reference scan condition related to a magnetic field strength of 3T is obtained, the
다른 예를 들어, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 촬영되었으며, 제2 제조사와 관련된 레퍼런스 스캔 조건이 획득되었다면, 이미지 분석 장치(2000)는 제1 제조사의 이미지 장치로 촬영된 뇌 이미지로부터 획득한 타겟 요소와 관련된 형태학적 값(혹은 형태학적 지표)을 제2 제조사의 이미지 장치로부터 획득된 것에 대응될 수 있는 형태학적 값(혹은 형태학적 지표)으로 보정할 수 있는 제2 보정 파라미터를 획득할 수 있다. 이때, 이미지 분석 장치(2000)는 타겟 이미지의 세그멘테이션 결과에 기초하여 획득한 타겟 요소와 관련된 타겟 형태학적 값(혹은 타겟 형태학적 지표)에 제2 보정 파라미터를 적용함으로써, 타겟 형태학적 보정값을 획득할 수 있다. As another example, if the target image is captured by an image device manufactured by a first manufacturer and a reference scan condition related to a second manufacturer is obtained, the
타겟 형태학적 보정값을 기초로 뇌 형태학적 지표를 출력하는 단계(S5470)에서, 이미지 분석 장치(2000)는 타겟 형태학적 보정값을 기초로 타겟 요소와 관련된 뇌 형태학적 지표를 출력할 수 있다. In step S5470 of outputting the brain morphological index based on the target morphological correction value, the
예를 들어, 이미지 분석 장치(2000)는 타겟 이미지의 세그멘테이션 결과에 따라 획득된 두개골의 내부 영역에 대응되는 형태학적 값과 타겟 형태학적 보정값을 기초로 타겟 요소와 관련된 뇌 형태학적 지표를 계산하여 출력하도록 구현될 수 있다. 좀 더 구체적으로 두개골의 내부 영역에 대응되는 형태학적 값에 대한 타겟 형태학적 보정값의 비율을 타겟 요소와 관련된 뇌 형태학적 지표로 계산하여 출력하도록 이미지 분석 장치(2000)가 구현될 수 있다. For example, the
이때, 두개골의 내부 영역에 대응되는 형태학적 값은 상술한 바와 같이 사용자의 레퍼런스 스캔 조건의 입력에 따라 보정 파라미터를 획득하여 보정된 값일 수 있다. In this case, the morphological value corresponding to the inner region of the skull may be a value corrected by obtaining a correction parameter according to the user's input of the reference scan condition as described above.
상술한 바에 따르면, 스캔 조건으로 자기장 세기와 이미지 장치의 제조사와 관련된 내용을 중심으로 서술하였으나, 이에 제한되지 않으며, 이미지 장치와 관련된 세팅 파라미터에 대한 스캔 조건에 대하여도 유사하게 적용될 수 있다. As described above, as the scan conditions, the magnetic field strength and the content related to the manufacturer of the image device have been mainly described, but the present invention is not limited thereto, and scan conditions for setting parameters related to the image device may be similarly applied.
또한, 도 66에 따르면, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하며, 판단한 결과에 따라 보정 파라미터를 획득하거나 결정하는 것으로 설명하였으나, 이에 제한되지 않으며, 이미지 분석 장치(2000)가 타겟 이미지의 스캔 조건과 레퍼런스 스캔 조건이 대응되는지 여부를 판단하는 과정이 생략될 수 있다. 예컨대, 이미지 분석 장치(2000)는 레퍼런스 스캔 조건 및 타겟 이미지의 스캔 조건을 획득하고, 레퍼런스 스캔 조건 및 타겟 이미지의 스캔 조건에 기초하여 결정된 보정 파라미터에 기초하여 타겟 형태학적 보정값이나 뇌 형태학적 지표를 획득하도록 구현될 수 있을 것이다. Also, according to FIG. 66 , the
이하에서는 도 67을 참고하여, 본 출원의 일 실시예에 따라 출력되는 형태학적 지표와 관련된 정보들의 예시 및 사용자의 레퍼런스 스캔 조건과 관련된 입력을 수신하는 유저 인터페이스를 설명한다. 도 67은 본 출원의 일 실시예에 따른 유저 인터페이스를 개략화한 도면이다. Hereinafter, an example of information related to a morphological index output and a user interface for receiving an input related to a reference scan condition of a user according to an embodiment of the present application will be described with reference to FIG. 67 . 67 is a diagram schematically illustrating a user interface according to an embodiment of the present application.
도 67을 참고하면, 본 출원의 일 실시예에 따른 유저 인터페이스는 입력 모듈(2040 혹은 2640)을 통하여 레퍼런스 스캔 조건과 관련된 사용자의 입력을 획득하고, 출력 모듈(2050 혹은 2650)을 통하여 레퍼런스 스캔 조건과 관련된 사용자의 입력에 대응되는 정보를 출력하도록 제공될 수 있다. 이때, 출력 모듈(2050 혹은 2650)은 스마트폰의 디스플레이, 모니터의 디스플레이 등 임의의 적절한 형태로서 구현될 수 있다.Referring to FIG. 67 , the user interface according to an embodiment of the present application obtains a user input related to a reference scan condition through an
일 예로, 이미지 분석 장치(2000)는, 이미지 분석 장치(2000)의 출력 모듈(2050) 혹은 출력 장치(2600)의 출력 모듈(2650)을 통하여, 형태학적 지표와 관련된 정보들을 출력할 수 있다. For example, the
이때, 이미지 분석 장치(2000)는 현재 스캔 조건에 대한 정보(O1)를 출력하도록 구현될 수 있다. 구체적으로 이미지 분석 장치(2000)는 출력되는 형태학적 지표와 관련된 정보들이 어떠한 스캔 조건에 대응되어 출력되는 것인지와 관련된 정보들(O1)을 출력하도록 구현될 수 있다. 예를 들어, 도 67을 다시 참고하면, 현재 출력되는 형태학적 지표와 관련된 정보들은, 타겟 이미지가 제1 제조사에 의해 제조된 이미지 장치에서 1.5T의 자기장 세기에 대응하는 스캔 조건 하에서 획득된 것을 나타내는 정보들을 포함할 수 있다. In this case, the
본 출원의 일 실시예에 따른 유저 인터페이스는 사용자의 레퍼런스 스캔 조건에 대한 입력을 획득하기 위한 체크박스들을 포함한 레퍼런스 스캔 조건에 대한 정보(O2)를 출력하도록 구현될 수 있다. The user interface according to an embodiment of the present application may be implemented to output information O2 about the reference scan condition including checkboxes for obtaining an input for the user's input of the reference scan condition.
구체적으로 사용자는 입력 모듈을 통하여 자기장 세기과 관련된 레퍼런스 스캔 조건에 대응되는 체크박스를 선택하도록 유저 인터페이스가 구현될 수 있으며, 이미지 분석 장치(2000)는 유저 인터페이스를 통하여 자기장 세기와 관련된 레퍼런스 스캔 조건을 획득할 수 있다. Specifically, a user interface may be implemented so that a user selects a checkbox corresponding to a reference scan condition related to magnetic field strength through an input module, and the
또한 사용자는 입력 모듈을 통하여 제조사와 관련된 레퍼런스 스캔 조건에 대응되는 체크박스를 선택하도록 유저 인터페이스가 구현될 수 있으며, 이미지 분석 장치(2000)는 유저 인터페이스를 통하여 제조사와 관련된 관련된 레퍼런스 스캔 조건을 획득할 수 있다. 레퍼런스 스캔 조건에 대한 정보(O2)는 체크 박스 이외의 다른 형태의 입력 인터페이스를 통하여 입력될 수도 있다.In addition, a user interface may be implemented so that the user selects a check box corresponding to the reference scan condition related to the manufacturer through the input module, and the
예를 들어, 도 67을 참고하면, 사용자는 입력 모듈을 통하여, 현재 출력되는 형태학적 지표와 관련된 정보(예, 제1 제조사에 의해 제조된 이미지 장치에서 1.5T의 자기장 세기에 대응하는 스캔 조건 하에서 계산된 정보들(F1, G1, T1))들을 제1 제조사에 의해 제조된 이미지 장치에서 3T의 자기장 세기에 대응하는 스캔 조건 하에서 획득된 것과 같은 형태학적 지표와 관련된 정보들로 변환하기 위한 입력 데이터를 입력할 수 있다. For example, referring to FIG. 67 , a user may use information related to a morphological index currently output through an input module (eg, under a scan condition corresponding to a magnetic field strength of 1.5T in an image device manufactured by the first manufacturer) Input data for converting the calculated information ( F1 , G1 , T1 ) into information related to a morphological index as obtained under a scan condition corresponding to a magnetic field strength of 3T in an imaging device manufactured by the first manufacturer can be entered.
이때, 이미지 분석 장치(2000)는, 도 67과 관련되어 상술한, 획득된 레퍼런스 스캔 조건에 기초하여 대응되는 보정 파라미터를 획득하고, 형태학적 값(혹은 형태학적 지표)을 보정하여 출력하는 동작을 수행하도록 구현될 수 있다. In this case, the
이때, 이미지 분석 장치(2000)는 보정된 형태학적 값 혹은 보정된 형태학적 지표에 기초하여, 기존에 출력된 형태학적 지표와 관련된 정보들을 변경하여 출력하도록 구현될 수 있다. In this case, the
예를 들어, 사용자으로부터 획득된 레퍼런스 스캔 조건에 따라 계산된 형태학적 값이나 형태학적 지표가 변경될 수 있으며, 이에 기초하여 뇌 부피 백분위 그래프(G1)가 수정되어 출력 모듈(2050)를 통하여 출력되도록 구현될 수 있다. For example, the calculated morphological value or morphological index may be changed according to the reference scan condition obtained from the user, and based on this, the brain volume percentile graph G1 is modified and outputted through the
다른 예를 들어, 사용자으로부터 획득된 레퍼런스 스캔 조건에 따라 계산된 형태학적 값이나 형태학적 지표가 변경될 수 있으며, 이에 기초하여 뇌 부피 상세분석표(T1)에 포함된 형태학적 값이나 형태학적 지표와 관련된 백분위와 같은 수치들이 수정되어 출력 모듈(2050)를 통하여 출력되도록 구현될 수 있다. For another example, the calculated morphological value or morphological index may be changed according to the reference scan condition obtained from the user, and based on this, the morphological value or morphological index included in the detailed brain volume analysis table T1 and Numerical values such as related percentiles may be modified and implemented to be output through the
또 다른 예를 들어, 사용자으로부터 획득된 레퍼런스 스캔 조건에 따라 계산된 형태학적 값이나 형태학적 지표가 변경될 수 있으며, 이에 기초하여 뇌 부피 위축도(F1)에 포함된 형태학적 지표와 관련된 백분위에 따른 색상이 수정되어 출력 모듈(2050)를 통하여 출력되도록 구현될 수 있다. As another example, the calculated morphological value or morphological index may be changed according to the reference scan condition obtained from the user, and based on this, the percentile associated with the morphological index included in the degree of brain volume atrophy (F1) is calculated. It may be implemented so that the corresponding color is corrected and outputted through the
다만 도 67에 도시된 유저 인터페이스는 예시에 불과하며, 유저 인터페이스는 임의의 적절한 방법을 통하여 사용자의 임의의 적절한 입력을 획득하고, 사용자 입력에 기초하여 변경되는 이미지 분석 장치의 분석 결과를 임의의 적절한 방법으로 출력하도록 구현될 수 있을 것이다. However, the user interface shown in FIG. 67 is only an example, and the user interface acquires any appropriate input from the user through any suitable method, and displays the analysis result of the image analysis device that is changed based on the user input in any suitable manner. It may be implemented to output in a method.
본 실시예에 따르면, 이미지 분석 장치(2000)는 제1 스캔 조건 하에서 촬영된 타겟 이미지의 타겟 요소와 관련된 영역에 대응되는 타겟 형태학적 값을, 사용자의 입력에 기초하여 제1 스캔 조건 이외의 제2 스캔 조건 혹은 제3 스캔 조건 하에서의 타겟 요소의 형태학적 추정값으로 계산할 수 있다. According to the present embodiment, the
따라서, 본 실시예에 따른 이미지 분석 장치(2000)는 타겟 형태학적 값을 사용자가 원하는 스캔 조건에 대응하는 형태학적 추정값으로 자유롭게 보정할 수 있어 사용자가 원하는 스캔 조건에 따른 형태학적 지표 정보들을 사용자에게 제공할 수 있다는 유리한 효과가 존재한다. Accordingly, the
한편, 본 출원의 일 실시예에 따른 형태학적 수치를 보정하기 위한 일 예는 도 58의 세그멘테이션 단계(S5200) 이전에도 수행될 수 있다. 다시 말해, 형태학적 수치를 보다 정확히 획득하기 위하여 이미지 분석 장치(2000)는 세그멘테이션 단계(S5200) 이전에 보정 동작을 수행하도록 구현될 수 있다. Meanwhile, an example for correcting a morphological value according to an embodiment of the present application may be performed even before the segmentation step S5200 of FIG. 58 . In other words, in order to more accurately obtain a morphological value, the
이때, 본 출원의 일 실시예에 따르면, 타겟 이미지가 획득된 스캔 조건별로 타겟 이미지와 관련된 보정이 다르게 구현될 수 있다. In this case, according to an embodiment of the present application, correction related to the target image may be implemented differently for each scan condition in which the target image is obtained.
일 예로, 이미지 분석 장치(2000)는 타겟 이미지의 인텐시티(intentsity)의 정규화(Regularization)과 같은 동작을 수행하도록 제공될 수 있다. 이때, 타겟 이미지가 획득된 스캔 조건별로 인텐시티(intentsity)의 정규화(Regularization)의 보정 방법이 상이하게 구현될 수 있다. As an example, the
다른 예로, 이미지 분석 장치(2000)는 타겟 이미지를 목표하는 자기장 세기 혹은 세팅 파라미터와 관련된 스캔 조건에 대응되는 뇌 이미지로 변환하는 동작을 수행하도록 구현될 수 있다. 예를 들어, 이미지 분석 장치(2000)는 MR 시뮬레이터(MR simulator) 등과 같은 임의의 적절한 소프트웨어, 이미지 변환 기법 혹은 학습된 인공 신경망을 이용하여, 타겟 이미지를 목표하는 스캔 조건에 대응되는 뇌 이미지로 변환할 수 있다. 이때, 타겟 이미지가 획득된 스캔 조건별로, 특히 타겟 이미지가 획득된 세팅 파라미터(예, TR, TE 등)를 고려하여 MR 시뮬레이터(MR simulator) 등의 이미지 변환 파라미터를 상이하게 제공함으로써 타겟 이미지의 보정이 수행될 수 있다. 이때, 이미지 분석 장치(2000)는 스캔 조건을 고려하여 타겟 이미지를 목표하는 스캔 조건에 대응되는 뇌 이미지로 변환하기 위한 변환 파라미터를 획득하거나 계산하도록 구현될 수 있다. As another example, the
또는 타겟 요소의 위치별로 타겟 이미지와 관련된 보정이 다르게 제공될 수 있다.Alternatively, the correction related to the target image may be differently provided for each position of the target element.
일 예로, 이미지 분석 장치(2000)는 제1 뇌 요소에 대응되는 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 제2 뇌 요소에 대응되는 제2 영역에 대하여는 제1 방법과는 상이한 제2 방법의 전처리를 수행하도록 구현될 수 있다. For example, the
예컨대, 제1 뇌 요소에 대응되는 제1 영역은, 제2 뇌 요소에 대응되는 제2 영역과 비교하여 두개골 영역에 인접하여 위치될 수 있다. 이때, 타겟 이미지의 해상도나 선명도와 관련하여 제1 영역은, 제2 영역에 비하여 상대적으로 선명하지 않을 수 있다. 이때, 이미지 분석 장치(2000)는 제1 영역에 대하여는 제1 방법을 이용하여 제1 영역의 선명도를 개선하는 전 처리를 수행하도록 구현될 수 있으며, 제2 영역에 대하여는 임의의 적절한 제2 방법을 이용하여 이미지 분석의 정확도를 개선하기 위한 전 처리를 수행하도록 구현될 수 있다. For example, the first region corresponding to the first brain element may be located adjacent to the skull region compared to the second region corresponding to the second brain element. In this case, in relation to the resolution or sharpness of the target image, the first region may not be relatively clear compared to the second region. In this case, the
상술한 바에 따르면, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 세그멘테이션 결과에 기초하여 획득된 형태학적 수치(예, 형태학적 값이나 형태학적 지표)에 대한 보정뿐만 아니라, 세그멘테이션 이전에 스캔 조건 등을 고려하여 추가적인 보정을 수행할 수 있기 때문에 보다 정확한 형태학적 수치를 획득할 수 있다는 유리한 효과가 존재할 수 있다. As described above, the
따라서, 본 출원의 일 실시예에 따른 이미지 분석 장치(2000)는 객관적인 뇌 질환과 관련된 진단 보조 지표를 사용자에게 제공할 수 있다는 장점이 존재할 수 있다. Accordingly, the
의료 이미지의 분석을 통해 다양한 지표 정보가 획득될 수 있고, 상기 지표 정보들로부터 도출될 수 있는 의료 정보 또한 다양할 수 있다. 예를 들어, 상기 지표 정보들로부터 도출될 수 있는 의료 정보는 상기 지표 정보들의 분석을 통해 획득되는 진단 정보, 분석 정보 또는 처방 정보에 관한 것일 수 있다.Various index information may be obtained through analysis of the medical image, and medical information that may be derived from the index information may also be various. For example, the medical information that can be derived from the indicator information may relate to diagnostic information, analysis information, or prescription information obtained through analysis of the indicator information.
이 경우, 획득되는 다양한 지표 정보 중 사용자에게 필요한 정보는 각각의 사용자마다 상이할 수 있다. 이에 따라, 의료 이미지가 포함하고 있는 다양한 지표 정보 중 사용자에게 필요한 지표 정보가 선별적으로 제공되어야 할 필요성이 존재한다. 또는, 의료 이미지가 포함하고 있는 다양한 지표 정보 중 사용자의 관심에 따라 선택된 지표 정보가 선별적으로 제공되어야 할 필요성도 존재한다. 즉, 사용자에게 필요한 정보를, 환자 정보 또는 사용자 정보 등에 따라 달리 제공함으로써, 의료 이미지로부터 도출된 지표 정보를 일률적으로 제공하는 것에 비하여, 사용자의 정보 취득이 보다 용이해질 수 있다.In this case, information required for a user among various pieces of acquired indicator information may be different for each user. Accordingly, there is a need to selectively provide index information necessary for a user among various index information included in a medical image. Alternatively, there is also a need to selectively provide index information selected according to a user's interest among various index information included in a medical image. That is, by providing the necessary information to the user differently according to patient information or user information, as compared to uniformly providing index information derived from a medical image, the user's information acquisition may be easier.
일 실시예에 따르면, 이미지 출력 장치는 촬영된 의료 이미지의 분석을 통해 획득되는 다양한 지표 정보 중 사용자에게 필요한 지표 정보를 선택적으로 제공할 수 있다.According to an exemplary embodiment, the image output apparatus may selectively provide the user with the required index information from among various index information obtained through analysis of the photographed medical image.
도 68은 일 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.68 is a diagram for describing a medical information output process according to an embodiment.
도 68을 참조하면, 일 실시예에 따른 의료 정보 출력 프로세스는 의료 데이터 획득 단계(S4100), 의료 정보 획득 단계(S4200), 진단 보조 정보 획득 단계(S4300) 및 진단 보조 정보 출력 단계(S4400)를 포함할 수 있다.Referring to FIG. 68 , the medical information output process according to an embodiment includes a medical data acquisition step (S4100), a medical information acquisition step (S4200), a diagnosis auxiliary information acquisition step (S4300), and a diagnosis auxiliary information output step (S4400). may include
도 69는 일 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.69 is a diagram for describing an image analysis apparatus according to an exemplary embodiment.
도 69를 참조하면, 일 실시예에 따른 이미지 분석 장치(4000)는 의료 정보를 출력할 수 있다. 이미지 분석 장치(4000)는 의료 데이터 획득 모듈(4100), 의료 정보 획득 모듈(4200), 진단 보조 정보 획득 모듈(4300) 및 진단 보조 정보 출력 모듈(4400)을 포함할 수 있다.Referring to FIG. 69 , the
도면에서는 의료 데이터가 이미지 분석 장치를 통해 획득되는 것으로 표시되어 있으나, 의료 데이터는 이미지 획득 장치에 의해 획득될 수도 있다.Although the drawings indicate that the medical data is acquired through the image analysis device, the medical data may also be acquired by the image acquisition device.
도 70은 의료 데이터 획득 모듈을 설명하기 위한 도면이다.70 is a diagram for explaining a medical data acquisition module.
도 70을 참조하면, 의료 데이터 획득 모듈(4100)은 이미지 데이터 획득부(4110) 또는 비-이미지 데이터 획득부(4130) 중 어느 하나를 포함할 수 있다. 의료 데이터는 이미지 데이터 또는 비-이미지 데이터 중 어느 하나를 포함할 수 있다.Referring to FIG. 70 , the medical
이미지 데이터 획득부(4110)는 이미지 데이터를 획득할 수 있다. 여기서, 이미지 데이터는 다양한 종류의 의료 이미지 또는 의료 영상을 포함할 수 있다. 이미지 데이터는 복수의 의료 이미지 또는 의료 영상을 포함할 수 있다.The image
비-이미지 데이터 획득부(4130)는 비-이미지 데이터를 획득할 수 있다. 여기서, 비-이미지 데이터는 건강과 관련된 문진표 데이터를 포함할 수 있다. 비-이미지 데이터는 이미지 데이터에 기초하여 획득된 비-이미지 정보를 포함할 수 있다.The non-image
도 71은 의료 정보 획득 모듈(4200)을 설명하기 위한 도면이다.71 is a diagram for explaining the medical
의료 정보 획득 모듈(4200)은 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 의료 정보는 대상체의 건강 상태와 관련한 다양한 정보를 포함할 수 있다. 의료 정보는 대상체와 관련한 다양한 지표 정보 예컨대, 인체의 일 영역에 관한 면적, 부피, 위치 또는 모양 등을 포함할 수 있다.The medical
도 71을 참조하면, 의료 정보 획득 모듈(4200)은 제1 의료 정보 획득부(4210) 또는 제2 의료 정보 획득부(4230) 중 어느 하나를 포함할 수 있다.Referring to FIG. 71 , the medical
제1 의료 정보 획득부(4210)는 제1 의료 정보를 획득할 수 있다. 제2 의료 정보 획득부(4230)는 제2 의료 정보를 획득할 수 있다. 이 경우, 제1 의료 정보 또는 제2 의료 정보는 학습된 신경망을 이용하여 의료 데이터를 기초로 획득된 정보를 포함할 수 있다. 제1 의료 정보 또는 제2 의료 정보는 의료 데이터와 로데이터를 포함할 수 있다. 제1 의료 정보 또는 제2 의료 정보는 의료 데이터를 기초로 획득되는 형태학적 지표 또는 형태학적 값을 포함할 수 있다.The first medical
제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 각각 독립된 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 제1 의료 정보 획득부(4210)은 제1 의료 데이터에 기초하여 의료 정보를 획득하고, 제2 의료 정보 획득부(4230)는 제2 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 예시적으로, 제1 의료 정보 획득부(4210)은 이미지 데이터에 기초하여 의료 정보를 획득하고, 제2 의료 정보 획득부(4230)는 비-이미지 데이터에 기초하여 의료 정보를 획득할 수 있다.The first medical
또는, 제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 공통되는 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 제1 의료 데이터에 기초하여 의료 정보를 획득할 수 있다. 예시적으로, 제1 의료 정보 획득부(4210) 및 제2 의료 정보 획득부(4230)는 이미지 데이터 또는 비-이미지 데이터에 기초하여 의료 정보를 획득할 수 있다.Alternatively, the first medical
도 71에서는, 제1 의료 정보 획득부(4210)와 제2 의료 정보 획득부(4230)가 구별되는 것으로 예시하였으나, 이는 예시에 불과하며 제1 의료 정보 획득부(4210)와 제2 의료 정보 획득부(4230)는 하나의 물리적 또는 논리적 구성으로 마련될 수 있다.In FIG. 71 , the first medical
도 72는 진단 보조 정보 획득 모듈(4300)을 설명하기 위한 도면이다.72 is a diagram for explaining the diagnostic auxiliary
진단 보조 정보 획득 모듈(4300)은 진단 보조 정보를 획득할 수 있다. 진단 보조 정보는 학습된 신경망을 이용하여 의료 정보를 기초로 획득된 정보일 수 있다. 진단 보조 정보는 의료 정보를 가공하여 획득된 정보일 수 있다. 예컨대, 진단 보조 정보는 의료 정보에 기초한 질병 진단 정보, 의료 정보 분석 정보, 처방 정보 등을 포함할 수 있다. 진단 보조 정보는 이미지 형태 또는 텍스트 형태일 수 있다.The diagnostic auxiliary
또한, 진단 보조 정보는 본 명세서에서 예시된 이미지 분석과 관련된 정보 예컨대, 이미지 품질 관련 정보, ICV 관련 정보, Calibration 관련 정보 또는 세그멘테이션(segmentation) 관련 정보를 포함할 수 있다.In addition, the diagnosis auxiliary information may include information related to image analysis exemplified herein, for example, image quality related information, ICV related information, calibration related information, or segmentation related information.
도 72를 참조하면, 진단 보조 정보 획득 모듈(4300)은 제1 진단 보조 정보 획득부(4310) 또는 제2 진단 보조 정보 획득부(4330) 중 어느 하나를 포함할 수 있다.Referring to FIG. 72 , the auxiliary diagnosis
제1 진단 보조 정보 획득부(4310)는 제1 진단 보조 정보를 획득할 수 있다. 제2 진단 보조 정보 획득부(4330)는 제2 진단 보조 정보를 획득할 수 있다.The first auxiliary diagnosis
제1 진단 보조 정보 획득부(4310) 및 제2 진단 보조 정보 획득부(4330)는 각각 독립된 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 제1 진단 보조 정보 획득부(4310)는 제1 의료 정보에 기초하여 진단 보조 정보를 획득하고, 제2 진단 보조 정보 획득부(4330)는 제2 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 예시적으로, 제1 진단 보조 정보 획득부(4310)는 이미지 데이터에 기초하여 진단 보조 정보를 획득하고, 제2 진단 보조 정보 획득부(7313)는 비-이미지 데이터에 기초하여 진단 보조 정보를 획득할 수 있다.The first diagnosis auxiliary
또는, 제1 진단 보조 정보 획득부(4310) 및 제2 진단 보조 정보 획득부(4330)는 공통되는 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 제1 진단 보조 정보 획득부(4310) 및 제2 진단 보조 정보 획득부(4330)는 제1 의료 정보에 기초하여 진단 보조 정보를 획득할 수 있다. 예시적으로, 제1 의료 정보는 이미지 데이터 또는 비-이미지 데이터일 수 있다.Alternatively, the first diagnosis auxiliary
도 72에서는, 제1 진단 보조 정보 획득부(4310)와 제2 진단 보조 정보 획득부(4330)가 구별되는 것으로 예시하였으나, 이는 예시에 불과하며 제1 진단 보조 정보 획득부(4310)와 제2 진단 보조 정보 획득부(4330)는 하나의 물리적 또는 논리적 구성으로 마련될 수 있다.In FIG. 72 , the first diagnosis auxiliary
도 73는 진단 보조 정보 출력 모듈(4400)을 설명하기 위한 도면이다.73 is a diagram for explaining the diagnostic auxiliary
도 73을 참조하면, 진단 보조 정보 출력 모듈(4400)은 진단 보조 정보 출력부(4410), 코멘트 생성부(4420) 또는 코멘트 출력부(4430)를 포함할 수 있다.Referring to FIG. 73 , the auxiliary diagnosis
진단 보조 정보 출력부(4410)는 진단 보조 정보를 출력할 수 있다. 진단 보조 정보 출력부(4410)는 복수의 진단 보조 정보(예컨대, 처방 정보 및 대상 질병 관련 지표 정보)를 출력할 수 있다. 예컨대, 진단 보조 정보 출력부(4410)는 제1 진단 보조 정보와 제2 진단 보조 정보에 기초한 정보를 출력할 수 있다. 진단 보조 정보 출력부(4410)는 진단 보조 정보를 이미지 또는 비-이미지 형태로 가공한 정보를 출력할 수 있다.The diagnostic auxiliary
코멘트 생성부(4420)는 진단 보조 정보에 기초하여 결정된 코멘트를 생성할 수 있다. 코멘트 생성부(4420)는 복수의 진단 보조 정보에 기초하여 결정된 코멘트를 생성할 수 있다. 예컨대, 코멘트 생성부(4420)는 제1 질병과 관련된 제1 진단 보조 정보와 제2 질병과 관련된 제2 진단 보조 정보에 기초하여 제1 코멘트를 생성할 수 있다. 이 경우, 제1 코멘트는 제1 질병과 관련된 정보 및/또는 제1 질병에 대한 처방 내지 의료적 처치와 관련된 정보를 포함할 수 있다.The
치매와 관련된 제1 보조 정보 예컨대, 해마의 수축 정도에 관한 정보와 치매와 관련된 제2 보조 정보 예컨대, 해마의 모양과 관련한 정보에 기초하여 제1 코멘트를 생성할 수 있다.The first comment may be generated based on the first auxiliary information related to dementia, for example, information about the degree of contraction of the hippocampus, and the second auxiliary information related to dementia, for example, information related to the shape of the hippocampus.
제1 코멘트는 대상체가 치매 위험도가 00%로 치매 초기 단계에 해당할 수 있다는 메시지를 나타낼 수 있다. 또한, 제1 코멘트는 대상체가 치매 초기 단계에 해당하므로 인지 능력이 저하될 수 있다는 메시지를 나타낼 수 있다.The first comment may indicate a message that the subject may correspond to an early stage of dementia with a dementia risk of 00%. Also, the first comment may indicate a message that cognitive ability may be reduced because the subject is in an early stage of dementia.
한편, 진단 보조 정보 출력 모듈은, 복수의 미리 정해진 조건에 기초하여, 획득한 의료 정보가 만족하는 조건에 따라, 진단 보조 정보 또는 코멘트를 달리 출력할 수 있다. Meanwhile, the diagnosis auxiliary information output module may differently output diagnosis auxiliary information or comments according to a condition satisfied by the acquired medical information based on a plurality of predetermined conditions.
예컨대, 복수의 미리 정해진 조건은, 하나 이상의 의료 정보에 대한 기준값을 포함하는 제1 조건 및 하나 이상의 의료 정보에 대한 기준값을 포함하고 제1 조건과 적어도 일부 상이한 제2 조건을 포함하고, 진단 보조 정보 출력 모듈은, 획득한 복수의 의료 정보가 제1 조건을 만족하는 경우 제1 진단 보조 정보(또는 제1 코멘트)를 출력하고, 획득한 복수의 의료 정보가 제2 조건을 만족하는 경우 제2 진단 보조 정보(또는 제2 코멘트)를 출력할 수 있다. For example, the plurality of predetermined conditions include a first condition including a reference value for the one or more medical information and a second condition including a reference value for the one or more medical information and at least partially different from the first condition, and the diagnostic auxiliary information The output module outputs first diagnosis auxiliary information (or a first comment) when the plurality of pieces of acquired medical information satisfies a first condition, and a second diagnosis when the plurality of pieces of obtained medical information satisfies the second condition Supplementary information (or second comment) may be output.
제1 조건은 제1 질병과 관련되고, 제1 의료 정보에 대한 제1 조건 및 제2 의료 정보에 대한 제2 조건을 포함할 수 있다. 제1 의료 정보에 대한 제1 조건은 제1 의료 정보가 제1 기준값을 초과하는 것을 포함하고, 제2 의료 정보에 대한 제2 조건은 제2 의료 정보가 제2 기준값을 초과하는 것을 포함할 수 있다. 제2 조건은 제2 질병과 관련되고, 제1 조건과 유사하게 구현될 수 있다. The first condition is related to the first disease, and may include a first condition for the first medical information and a second condition for the second medical information. The first condition for the first medical information may include that the first medical information exceeds the first reference value, and the second condition for the second medical information may include that the second medical information exceeds the second reference value. have. The second condition is related to the second disease and may be implemented similarly to the first condition.
이하에서는, 진단 보조 정보 및/또는 코멘트 생성에 기초가 되는 미리 정해진 조건에 대하여, 몇몇 실시예를 들어 설명한다.Hereinafter, predetermined conditions that are based on generation of diagnostic auxiliary information and/or comments will be described with reference to some embodiments.
도 74는 몇몇 대상 질병에 대하여, 관련된 지표를 예시하기 위한 도면이다.74 is a diagram for illustrating related indicators for some target diseases.
도 74를 참조하면, 알츠하이머성 치매의 경우, 측두엽 위축 지표, 두정엽 위축 지표 및 해마 위축 지표와 관련될 수 있다. 혈관성 치매의 경우, 측두엽 위축 지표, 두정엽 위축 지표, 해마 위축 지표, 백질 병변 위축 지표 및 대상회 위축 지표와 관련될 수 있다. 전두측두엽(FTLD) 치매의 경우, 전두엽 위축 지표, 측두엽 위축 지표 및 해마 위축 지표와 관련될 수 있다. Referring to FIG. 74 , in the case of Alzheimer's dementia, it may be related to a temporal lobe atrophy index, a parietal atrophy index, and a hippocampal atrophy index. In the case of vascular dementia, it may be associated with an indicator of temporal lobe atrophy, an indicator of parietal atrophy, an indicator of hippocampal atrophy, an indicator of white matter lesion atrophy, and an indicator of gyrus atrophy. In the case of frontotemporal lobe (FTLD) dementia, it may be associated with indicators of frontal lobe atrophy, indicators of temporal lobe atrophy, and indicators of hippocampal atrophy.
각 질병과 지표 사이의 상관관계는 상이할 수 있다. 예컨대, 해마 위축 지표가 측두엽 위축 지표 및 두정엽 위축 지표보다 알츠하이머성 치매와 높은 연관성을 가질 수 있다. 백질 병변 지표가 해마 위축 지표 보다 혈관성 치매와 높은 연관성을 가지고, 해마 위축 지표가 전두엽 위축 지표, 측두엽 위축 지표 및 두정엽 위축 지표보다 혈관성 치매와 높은 연관성을 가질 수 있다. 전두엽 위축 지표 및 측두엽 위축 지표가 해마 위축 지표보다 전두측두엽 치매와 높은 연관성을 가질 수 있다.Correlation between each disease and indicator may be different. For example, the hippocampal atrophy index may have a higher correlation with Alzheimer's dementia than the temporal and parietal atrophy index. The white matter lesion index may have a higher correlation with vascular dementia than the hippocampal atrophy index, and the hippocampal atrophy index may have a higher correlation with vascular dementia than the frontal lobe atrophy index, the temporal lobe atrophy index, and the parietal lobe atrophy index. The frontal atrophy index and the temporal atrophy index may have a higher correlation with frontotemporal dementia than the hippocampal atrophy index.
진단 보조 정보 출력 모듈(4400)은, 도 74에서 예시하는 것과 같은 지표(의료 정보)와 질병 사이의 연관 관계에 기초하여 생성된 진단 보조 정보를 출력할 수 있다.The diagnosis auxiliary
예컨대, 도 74를 참조하면, 의료 정보에 따르면 전두엽 지표, 측두엽 지표 및 해마 지표가 각각 임계값 이상인 경우, 진단 보조 정보 출력 모듈(4400)은, 대상체가 FTLD에 대하여 위험군에 속함을 나타내는 진단 보조 정보를 출력할 수 있다. 또는, 해마 지표, 측두엽 지표 및 두정엽 지표가 각각 임계값 이상인 경우, 진단 보조 정보 출력 모듈(4400)은, 대상체가 AD(Alzheimer’s disease)에 대하여 위험군에 속함을 나타내는 진단 보조 정보를 출력할 수 있다.For example, referring to FIG. 74 , when the frontal lobe index, the temporal lobe index, and the hippocampal index are each greater than or equal to a threshold value according to the medical information, the diagnostic auxiliary
도 75는 일 실시예에 따른 의료 정보 출력 화면을 설명하기 위한 도면이다.75 is a diagram for explaining a medical information output screen according to an exemplary embodiment.
도 75를 참조하면, 의료 정보 출력 화면은 환자 정보(PI), 이미지 정보(RI), 지표 정보(FI), 진단 정보(DI) 또는 코멘트(CMT)를 포함할 수 있다.Referring to FIG. 75 , the medical information output screen may include patient information (PI), image information (RI), indicator information (FI), diagnosis information (DI), or comments (CMT).
이미지 정보(RI)는 진단 보조 정보와 관련된 의료 이미지가 표시된 이미지를 포함할 수 있다. 지표 정보(FI)는 의료 데이터로부터 획득된 의료 정보와 관련된 정보를 포함할 수 있다. 진단 정보(DI)는 의료 정보로부터 획득된 진단 보조 정보 예컨대, 질병 진단 정보, 의료 정보 분석 정보, 처방 정보 등을 포함할 수 있다.The image information RI may include an image on which a medical image related to diagnosis auxiliary information is displayed. The indicator information FI may include information related to medical information obtained from medical data. The diagnosis information DI may include diagnosis auxiliary information obtained from medical information, for example, disease diagnosis information, medical information analysis information, prescription information, and the like.
코멘트(CMT)는 진단 보조 정보에 기초하여 생성된 코멘트를 포함할 수 있다. 도 74를 함께 참조하면, 전두엽 지표, 측두엽 지표 및 해마 지표가 각각 임계값 이상인 경우, ‘전두엽 및 측두엽의 위축 정도가 정상인에 비해 높은 수치를 나타내고, 해마의 위축 정도가 위험 수준이므로 FTLD(Frontal-temporal lobe dementia) 질병의 발생이 의심되는 상황’임을 나타내는 코멘트를 제공할 수 있다.The comment CMT may include a comment generated based on the diagnosis auxiliary information. Referring to FIG. 74 together, when the frontal lobe index, the temporal lobe index, and the hippocampal index are each greater than or equal to the threshold, 'Frontal- It is possible to provide a comment indicating that it is a situation in which the onset of the disease (temporal lobe dementia) is suspected.
또는, 해마 지표, 측두엽 지표 및 두정엽 지표가 각각 임계값 이상인 경우, ‘해마의 위축 정도가 정상인인에 비해 높은 수치를 나타내고, 측두엽 및 두정엽의 위축 정도가 위험 수준에 해당하므로, AD(Alzheimer’s disease) 질병이 의심되는 상황’임을 나타내는 코멘트를 제공할 수 있다.Alternatively, when the hippocampal index, the temporal lobe index, and the parietal lobe index are above the threshold values, 'the degree of hippocampal atrophy is higher than that of normal individuals, and the degree of atrophy of the temporal and parietal lobes corresponds to a risk level, so AD (Alzheimer's disease) You can provide a comment indicating that the disease is 'suspicious'.
코멘트(CMT)는 진단 보조 정보에 기초하여 생성되는 처방 정보를 포함할 수 있다. 도 74를 함께 참조하면, 측두엽 지표, 두정엽 지표 및 해마 지표가 각각 임계값 이상인 경우, ‘알츠하이머 침해가 의심되는 상황이므로, 제1 처방 정보 예컨대, 아스피린 등의 혈소판 응집억제제, 와파린 등의 항응고제, 혈류순환개선제, 아세틸콜린 분해효소 억제제의 처방이 요구됨’을 나타내는 코멘트를 제공할 수 있다.The comment CMT may include prescription information generated based on the diagnosis auxiliary information. 74 together, when the temporal lobe index, the parietal lobe index, and the hippocampal index are each greater than or equal to the threshold, 'Since Alzheimer's is suspected, the first prescription information, for example, a platelet aggregation inhibitor such as aspirin, an anticoagulant such as warfarin, blood flow It is possible to provide a comment indicating that the prescription of a circulation improving agent or an acetylcholinease inhibitor is required.
또는, 전두엽 지표, 측두엽 지표 및 해마 지표가 각각 임계값 이상인 경우, ‘전두측두엽 치매가 의심되는 상황이므로, 제2 처방 예컨대, 항정신병 약물, 항우울제, 항불안제, 수면제 등의 정신과적 약물에 관한 처방이 요구됨’을 나타내는 코멘트를 제공할 수 있다.Alternatively, if the frontal index, the temporal index, and the hippocampal index are each greater than or equal to the threshold value, 'Since frontotemporal dementia is suspected, a second prescription, such as an antipsychotic drug, an antidepressant, an antianxiety agent, A comment indicating 'required' may be provided.
의료 이미지의 분석을 통해 다양한 지표 정보가 획득될 수 있는데, 상기 다양한 지표 정보를 사용자에게 일률적으로 표시 또는 제공하는 경우, 사용자(예를 들어, 임상의)가 필요에 따라 정보를 선별적으로 획득하여야 하는 불편함이 존재한다. 이에 따라, 사용자의 편의를 증진하기 위해, 사용자 정보 내지 환자 정보에 따라 의료 정보를 달리 제공하여야 할 필요성이 있다.Various index information can be obtained through the analysis of medical images. When the various index information is uniformly displayed or provided to the user, the user (eg, a clinician) must selectively acquire the information as needed. discomfort exists. Accordingly, in order to improve user convenience, there is a need to provide different medical information according to user information or patient information.
일 실시예에 따른 이미지 장치는 의료 데이터를 획득하고, 의료 데이터에 기초하여 복수의 의료 정보(예컨대, ICV 기타 형태학적 지표)를 획득하고, 의료 정보를 재구성한 후, 재구성된 정보를 제공할 수 있다.The imaging device according to an embodiment may obtain medical data, acquire a plurality of medical information (eg, ICV or other morphological indices) based on the medical data, reconstruct the medical information, and then provide the reconstructed information. have.
재구성된 정보는 사용자 정보 또는 환자 정보에 기초하여 재구성된 정보일 수 있다. 여기서, 사용자 정보는 진료 과목, 카테고리, 평소 선호하는 지표들에 대한 사용자의 선택 등을 포함하고, 환자 정보는 환자 인적 사항, 환자의 건강 상태에 관한 정보, 환자의 의료 데이터를 분석하여 얻은 정보, 환자의 과거 진료 이력 등을 포함할 수 있다.The reconstructed information may be information reconstructed based on user information or patient information. Here, the user information includes a user's selection of medical subjects, categories, and preferred indicators, and the patient information includes patient personal information, information about the patient's health status, information obtained by analyzing the patient's medical data, The patient's past medical history may be included.
또는, 재구성된 정보는 상술한 사용자 정보 내지 환자 정보에 기초하여 획득된 복수의 의료 정보에 관한 우선 순위 또는 정렬 순서가 결정된 정보를 포함할 수 있다.Alternatively, the reconstructed information may include information in which a priority or an arrangement order regarding a plurality of pieces of medical information obtained based on the above-described user information or patient information is determined.
또는, 재구성된 정보는 획득된 복수의 의료 정보 중 상술한 사용자 정보 내지 환자 정보에 기초하여 우선적으로 선별된 일부 의료 정보를 포함할 수 있다.Alternatively, the reconstructed information may include some medical information preferentially selected based on the above-described user information or patient information among a plurality of acquired medical information.
진단 보조 정보 출력 모듈(4400)이 재구성된 정보를 제공하는 것은, 사용자 정보 내지 환자 정보에 기초하여 우선 순위가 높은 의료 정보가 상단에 표시되도록 제공하는 것을 포함할 수 있다. 또는, 진단 보조 정보 출력 모듈(4400)이 재구성된 정보를 제공하는 것은, 상술한 사용자 정보 내지 환자 정보에 기초하여 선별된 의료 정보를 제공하는 것을 포함할 수 있다.The provision of the reconstructed information by the diagnostic auxiliary
이하에서는, 의료 정보를 선별적으로 제공하는 장치 및 방법에 대하여 보다 구체적으로 설명한다.Hereinafter, an apparatus and method for selectively providing medical information will be described in more detail.
도 76는 다른 실시예에 따른 의료 정보 출력 프로세스를 설명하기 위한 도면이다.76 is a diagram for explaining a medical information output process according to another embodiment.
도 76를 참조하면, 다른 실시예에 따른 의료 정보 출력 프로세스는 의료 데이터 획득 단계(S4100), 의료 정보 획득 단계(S4200), 선별 정보 획득 단계(S4700) 및 선별 정보 출력 단계(S4900)를 포함할 수 있다.Referring to FIG. 76, the medical information output process according to another embodiment may include a medical data acquisition step (S4100), a medical information acquisition step (S4200), a screening information acquisition step (S4700), and a screening information output step (S4900). can
도 77은 다른 실시예에 따른 이미지 분석 장치를 설명하기 위한 도면이다.77 is a diagram for explaining an image analysis apparatus according to another embodiment.
도 77을 참조하면, 다른 실시예에 따른 이미지 분석 장치(4000)는 의료 정보를 출력할 수 있다. 이미지 분석 장치(4000)는 의료 데이터 획득 모듈(4100), 의료 정보 획득 모듈(4200), 선별 정보 획득 모듈(4700) 및 선별 정보 출력 모듈(4900)을 포함할 수 있다. 도면에서는 의료 데이터가 이미지 분석 장치를 통해 획득되는 것으로 표시되어 있으나, 의료 데이터는 이미지 획득 장치에 의해 획득될 수도 있다.Referring to FIG. 77 , the
선별 정보 획득 모듈(4700)은 선별 정보를 획득할 수 있다.The selection
선별 정보는 의료 정보를 기초로 획득된 정보일 수 있다. 선별 정보는 학습된 신경망 모델을 이용하여 의료 정보를 기초로 획득된 정보일 수 있다. 선별 정보는 의료 정보 중에서 질병 판단의 근거가 되는 정보일 수 있다. 선별 정보는 의료 정보 중 학습된 신경망 모델을 이용하여 선택된 정보를 의미할 수 있다.The selection information may be information obtained based on medical information. The selection information may be information obtained based on medical information using a learned neural network model. The selection information may be information that is a basis for determining a disease among medical information. The selection information may refer to information selected using a neural network model learned from among medical information.
선별 정보는 의료 정보 중 미리 정해진 선별 기준에 의해 선택된 정보를 의미할 수 있다.The selection information may refer to information selected by a predetermined selection criterion among medical information.
일 실시예에 따르면, 선별 기준은 환자 정보를 기초로 결정될 수 있다. 선별 기준은 이미지 데이터에 기초하여 획득된 의료 정보 중 환자의 상태와 관련 있는 정보를 이미지 데이터 또는 비-이미지 데이터에 기초하여 획득된 의료 정보에서 선택하도록 정해질 수 있다.According to an embodiment, the selection criterion may be determined based on patient information. The selection criterion may be determined to select information related to a patient's condition from among medical information acquired based on image data, from medical information acquired based on image data or non-image data.
선별 기준은 이미지 데이터에 기초하여 획득된 의료 정보 중 환자의 상태와 관련 있는 정보가 선별되도록 정해질 수 있다.The selection criterion may be determined such that information related to a patient's condition is selected from among the medical information obtained based on the image data.
선별 기준은 기준 의료 정보에 따라 미리 정해진 의료 정보 세트가 선별되도록 정해질 수 있다. 구체적인 예로, 기준 의료 정보가 해마의 수축 정도인 경우, 선별 기준은, 해마의 수축 정도가 기준값 이상인 경우, 미리 정해진 하나 이상의 의료 정보가 출력되도록 정해질 수 있다. 이때, 선별되는 하나 이상의 의료 정보는 해마의 수축과 관련된 의료 정보일 수 있다. 예컨대, 해마의 수축은 혈관성 치매와 높은 관련성을 가지고, 선별되는 하나 이상의 의료 정보는, 혈관성 치매의 진단에 이용되는 측두엽 위축 정보 및 두정엽 위축 정보를 포함할 수 있다.The selection criterion may be determined such that a predetermined medical information set is selected according to the reference medical information. As a specific example, when the reference medical information is the degree of contraction of the hippocampus, the selection criterion may be determined to output one or more predetermined medical information when the degree of contraction of the hippocampus is equal to or greater than the reference value. In this case, the selected one or more medical information may be medical information related to the contraction of the hippocampus. For example, the contraction of the hippocampus has a high correlation with vascular dementia, and the selected one or more medical information may include information on temporal lobe atrophy and parietal lobe atrophy information used for diagnosis of vascular dementia.
선별 기준은 사용자의 선택에 따라 미리 정해진 의료 정보 세트가 선별되도록 정해질 수 있다. 구체적인 예로, 사용자가 제1 진료과(예컨대, 영상의학과)에 속해 있는 경우, 선별 기준은, 사용자가 제1 진료과(예컨대, 영상의학과)인 경우, 미리 정해진 하나 이상의 의료 정보가 출력되도록 정해질 수 있다. 선별 정보 출력 모듈(4900)은 복수의 진료과(또는 항목) 중 어느 하나를 선택하는 사용자 입력에 기초하여, 선택된 진료과에 대응되는 의료 정보를 선별적으로 제공할 수 있다. 이때, 선별되는 하나 이상의 의료 정보는 제1 진료과(예컨대, 영상의학과)에서 다루어지는 의료 정보일 수 있다. 예컨대, 사용자가 제1 진료과에 속해있는 경우, 선별 정보 출력 모듈(4900)은 제1 진료과를 선택하는 사용자 입력에 응답하여, 제1 지표를 포함하는 의료 정보를 출력할 수 있다. 제1 지표는 제1 진료과에 대응되도록 미리 정해질 수 있다. 제1 진료과(예컨대, 영상의학과)는 제1 지표(예컨대, 백질 병변 등)와 높은 관련성을 가질 수 있다.The selection criterion may be determined such that a predetermined medical information set is selected according to a user's selection. As a specific example, when the user belongs to the first department (eg, department of radiology), the selection criteria may be determined such that, when the user is the first department (eg, department of radiology), one or more predetermined medical information is output. . The selection
선별 기준은 의사의 관심 대상 질병에 따라 미리 정해진 의료 정보 세트가 선별되도록 정해질 수 있다. 구체적인 예로, 의사가 제1 질병(예컨대, 치매)를 관심 대상으로 하는 경우, 선별 기준은, 의사가 제1 질병(예컨대, 치매)인 경우, 미리 정해진 하나 이상의 의료 정보가 출력되도록 정해질 수 있다. 선별 정보 출력 모듈(4900)은 복수의 관심 대상 질병 중 어느 하나를 선택하는 사용자 입력에 기초하여, 선택된 질병에 대응되는 의료 정보를 선별적으로 제공할 수 있다. 이때, 선별되는 하나 이상의 의료 정보는 제1 질병(예컨대, 치매)와 높은 관련성을 가지는 의료 정보일 수 있다.The selection criterion may be determined such that a predetermined set of medical information is selected according to the disease of interest of the doctor. As a specific example, when the doctor is interested in a first disease (eg, dementia), the selection criteria may be determined such that, when the doctor is the first disease (eg, dementia), one or more predetermined medical information is output. . The selection
도 78은 선별 정보 획득 모듈을 설명하기 위한 도면이다.78 is a diagram for explaining a selection information obtaining module.
도 78을 참조하면, 선별 정보 획득 모듈(4700)은 제1 선별 정보 획득부(4710) 또는 제2 선별 정보 획득부(4730)을 포함할 수 있다.Referring to FIG. 78 , the selection
제1 선별 정보 획득부(4710)는 의료 정보 중 제1 선별 기준에 따라 선택된 제1 선별 정보를 획득할 수 있다.The first selection
제2 선별 정보 획득부(4730)는 의료 정보 중 제2 선별 기준에 따라 선택된 제2 선별 정보를 획득할 수 있다.The second selection
제1 선별 기준은 사용자 정보 또는 환자 정보와 관련된 기준 중 어느 하나일 수 있다. 제2 선별 기준은 사용자 정보 또는 환자 정보와 관련된 기준 중 제1 선별 기준과 상이한 어느 하나일 수 있다. 일 예로, 제1 선별 기준은 사용자 정보(예컨대, 의사의 진료과의 종류, 의사의 관심 대상)에 기초한 기준일 수 있고, 제2 선별 기준은 환자 정보(예컨대, 환자 인적 사항, 환자의 의료 데이터를 분석하여 얻은 정보, 환자의 과거 진료 이력)에 기초한 기준일 수 있다.The first selection criterion may be any one of criteria related to user information and patient information. The second selection criterion may be any one different from the first selection criterion among criteria related to user information or patient information. For example, the first selection criterion may be a criterion based on user information (eg, the type of the doctor's department, the doctor's interest), and the second selection criterion is the patient information (eg, patient personal information, the patient's medical data is analyzed) It may be a criterion based on information obtained through
도 79은 선별 정보 출력 모듈(4900)을 설명하기 위한 도면이다.79 is a diagram for explaining the selection
도 79을 참조하면, 선별 정보 출력 모듈(4900)은 선별 정보 정렬부(4910), 선별 정보 출력부(4920), 코멘트 생성부(4930) 및 코멘트 출력부(4940)을 포함할 수 있다.Referring to FIG. 79 , the selection
선별 정보 정렬부(4910)는 선별 정보 획득 모듈(4700)을 통해 획득된 선별 정보를 미리 정해진 정렬 기준에 따라 정렬할 수 있다. 정렬 기준은 선별 정보가 상술한 선별 기준에 가장 부합하는 순서로 정렬되도록 정해진 기준을 포함할 수 있다.The selection
선별 정보 정렬부(4910)는 선별 정보가 선별 정보의 유형 별로 정렬되도록 정해진 기준에 따라 선별 정보를 정렬할 수 있다. 예컨대, 선별 정보 정렬부(4910)는 제1 질병과 관련된 선별 정보, 제2 질병과 관련된 선별 정보를 분류하여 정렬하도록 정해진 기준을 포함할 수 있다. 선별 정보 정렬부(4910)는 생략될 수 있다.The selection
선별 정보 출력부(4920)는 선별 정보를 출력할 수 있다. 선별 정보 출력부(4920)는 선별 정보에 포함되는 복수의 의료 정보 중 일부를 출력할 수 있다. 선별 정보 출력부(4920)는 선별 정보에 포함되는 복수의 의료 정보 중 선별 기준에 부합하는 정도가 높은 일부 정보를 출력할 수 있다.The selection
코멘트 생성부(4930)는 선별 정보에 기초하여 코멘트를 생성할 수 있다. 코멘트 생성부(4930)는 복수의 선별 정보에 기초하여 코멘트를 생성할 수 있다. 예컨대, 코멘트 생성부(4930)는 제1 질병과 관련된 제1 선별 정보와 제1 질병과 관련된 제2 선별 정보에 기초하여 제1 코멘트를 생성할 수 있다. 이 경우, 제1 코멘트는 제1 질병과 관련된 정보 및/또는 제1 질병에 대한 처방 내지 의료적 처치와 관련된 정보를 포함할 수 있다.The
예시적으로, 치매와 관련된 제1 선별 정보 예컨대, 해마의 수축 정도에 관한 정보와 치매와 관련된 제2 선별 정보 예컨대, 해마의 모양과 관련한 정보에 기초하여 제1 코멘트를 생성할 수 있다. 이 경우, 제1 코멘트는 대상체는 치매 위험도가 00%로 치매 초기 단계에 해당할 수 있다는 메시지를 나타낼 수 있다. 또한, 제1 코멘트는 대상체가 치매 초기 단계에 해당하므로 인지 능력이 저하될 수 있다는 메시지를 나타낼 수 있다. 또한, 제1 코멘트는 대상체의 치매 진행 정도에 기초한 처방 정보를 나타낼 수 있다.For example, the first comment may be generated based on the first selection information related to dementia, eg, information about the degree of contraction of the hippocampus, and the second selection information related to dementia, eg, information related to the shape of the hippocampus. In this case, the first comment may indicate a message that the subject has a dementia risk of 00%, which may correspond to an early stage of dementia. Also, the first comment may indicate a message that cognitive ability may be reduced because the subject is in an early stage of dementia. Also, the first comment may indicate prescription information based on the subject's dementia progression level.
도 80 및 도 81은 선별 정보 출력 화면을 설명하기 위한 도면이다.80 and 81 are diagrams for explaining a selection information output screen.
도 80를 참조하면, 일 실시예에 따른 선별 정보 출력 화면은 의료 정보 중 환자 정보와 관련된 정보를 선택하도록 정해진 선별 기준에 따라 선택된 정보에 기초한 출력화면일 수 있다.Referring to FIG. 80 , the selection information output screen according to an embodiment may be an output screen based on information selected according to a selection criterion determined to select information related to patient information from among medical information.
일 실시예에 따른 선별 정보 출력 화면은 환자 정보(PI), 이미지 정보(MI), 질병 정보(DI), 선별 정보(SI), 분석 정보(AN) 또는 코멘트(CMT)를 포함할 수 있다.The screen for outputting screening information according to an embodiment may include patient information (PI), image information (MI), disease information (DI), screening information (SI), analysis information (AN), or comments (CMT).
이미지 정보(MI)는 선별 기준(예컨대, 환자 정보에 따른 선별 기준)에 따라 선택된 선별 정보와 관련된 의료 이미지를 포함할 수 있다. The image information MI may include a medical image related to selection information selected according to a selection criterion (eg, a selection criterion according to patient information).
질병 정보(DI)는 제1 선별 기준에 따라 선택된 선별 정보에 기초하여 획득된 질병 정보를 포함할 수 있다. 이 경우, 질병 정보(DI)는 대상체에 발생될 수 있는 적어도 하나 이상의 질병 정보 및 대상체에 해당 질병이 발생될 확률에 관한 정보를 포함할 수 있다. 질병 정보(DI)는 대상체에 발생될 수 있는 복수의 질병 정보가 일정 기준에 따라 정렬된 정보를 포함할 수 있다.The disease information DI may include disease information acquired based on selection information selected according to the first selection criterion. In this case, the disease information DI may include information on at least one or more diseases that may occur in the object and information on a probability that the corresponding disease will occur in the object. The disease information DI may include information in which a plurality of disease information that may be generated in an object is arranged according to a predetermined criterion.
선별 정보(SI)는 의료 정보에 포함되어 있는 해부학적 지표 중 환자 정보와 관련된 해부학적 지표를 포함할 수 있다. 선별 정보(SI)는 질병 정보(DI)와 연관성이 있는 해부학적 지표를 포함할 수 있다. 예컨대, 사용자가 복수의 질병 정보 중 제1 질병 정보를 선택하는 경우, 선별 정보 출력 화면은 제1 질병과 관련 있는 해부학적 지표에 관한 제1 선별 정보를 제공할 수 있다. 사용자가 복수의 질병 정보 중 제1 질병 정보 및 제2 질병 정보를 선택하는 경우, 선별 정보 출력 화면은 제1 질병 정보 및 제2 질병 정보와 관련 있는 해부학적 지표에 관한 제2 선별 정보를 제공할 수 있다.The selection information SI may include an anatomical index related to patient information among anatomical indices included in the medical information. The screening information SI may include an anatomical index related to the disease information DI. For example, when the user selects the first disease information from among the plurality of disease information, the selection information output screen may provide the first selection information regarding the anatomical index related to the first disease. When the user selects the first disease information and the second disease information from among the plurality of disease information, the selection information output screen may provide the first disease information and the second selection information on an anatomical index related to the second disease information. can
분석 정보(AN)는 대상체에 관한 의료 데이터에 기초하여 획득된 종합 분석 결과 예컨대, 레포트 형식의 종합 분석 결과를 포함할 수 있다. The analysis information AN may include a comprehensive analysis result obtained based on medical data about an object, for example, a comprehensive analysis result in a report format.
코멘트(CMT)는 선별 정보에 기초하여 생성된 코멘트를 포함할 수 있다. 코멘트에 관련하여서는 본 명세서에서 상술한 내용이 적용될 수 있다. 코멘트는, 의료 정보 중 제1 질병을 기초로 획득된 선별 정보에 기초하여 제1 질병과 관련한 코멘트를 생성할 수 있다. 예컨대, 도 80을 참조하면, 코멘트는, 알츠하이머와 관련된 제1 선별 정보(예컨대, 해마 위축 정도) ,제2 선별 정보(예컨대, 전두엽 위축 정도) 및 대상체의 알츠하이머 위험 정도와 관련된 정보를 포함할 수 있다.The comment CMT may include a comment generated based on selection information. Regarding comments, the above-described contents in this specification may be applied. The comment may generate a comment related to the first disease based on selection information obtained based on the first disease among the medical information. For example, referring to FIG. 80 , the comment may include first screening information (eg, degree of hippocampal atrophy) related to Alzheimer's disease, second screening information (eg, degree of frontal lobe atrophy) and information related to the subject's degree of Alzheimer's risk. have.
코멘트는, 복수의 질병 정보 중 어느 하나를 선택하는 사용자 입력에 응답하여 변경될 수 있다. 예컨대, 도 80에서, 사용자가 혈관성 치매 질병 정보 오브젝트를 선택함에 따라, 코멘트는 대상체의 혈관성 치매 위험 정도 및 대상체의 혈관성 치매에 관련된 선별 정보를 포함하는 것으로 변경될 수 있다.The comment may be changed in response to a user input for selecting any one of a plurality of disease information. For example, in FIG. 80 , as the user selects the vascular dementia disease information object, the comment may be changed to include selection information related to the subject's vascular dementia risk level and the subject's vascular dementia.
도 81을 참조하면, 다른 실시예에 따른 선별 정보 출력 화면은 의료 정보 중 진료과에 따라 관련된 정보를 선택하도록 정해진 선별 기준에 따라 선택된 정보에 기초한 출력화면일 수 있다. Referring to FIG. 81 , the screen for outputting screening information according to another exemplary embodiment may be an output screen based on information selected according to a screening criterion determined to select information related to a department from among medical information.
다른 실시예에 따른 선별 정보 출력화면은 환자 정보(PI), 이미지 정보(MI), 진료과 정보(CAT), 선별 정보(SI), 분석 정보(AN) 또는 코멘트(CMT)를 포함할 수 있다.The screening information output screen according to another embodiment may include patient information (PI), image information (MI), department information (CAT), screening information (SI), analysis information (AN), or comments (CMT).
이미지 정보(MI)는 선별 기준(예컨대, 진료 과목에 따른 선별 기준)에 따라 선택된 선별 정보와 관련된 의료 이미지를 포함할 수 있다. The image information MI may include a medical image related to selection information selected according to a selection criterion (eg, a selection criterion according to a medical subject).
진료과 정보(CAT)는 제2 선별 기준에 따라 선택된 선별 정보에 기초하여 획득된 질병 정보를 포함할 수 있다. 이 경우, 진료과 정보(CAT)는 대상체와 관련된 의료 데이터를 분석하는 진료과 리스트를 포함할 수 있다. 진료과 리스트는 대상체와 관련된 의료 데이터의 분석을 요하는 적어도 하나 이상의 진료과를 포함할 수 있다.The department information CAT may include disease information acquired based on selection information selected according to the second selection criterion. In this case, the department information CAT may include a department list that analyzes medical data related to the object. The department list may include at least one department requiring analysis of medical data related to the subject.
선별 정보(SI)는 의료 정보에 포함되어 있는 해부학적 지표 중 선택된 진료과 정보(CAT)와 관련된 해부학적 지표를 포함할 수 있다. 선별 정보(SI)는 선택된 진료과 정보(CAT))와 연관성이 있는 해부학적 지표를 포함할 수 있다. 예컨대, 사용자가 복수의 진료과 중 제1 진료과를 선택하는 경우, 선별 정보 출력 화면은 제1 진료과와 관련 있는 해부학적 지표에 관한 제3 선별 정보를 제공할 수 있다. 사용자가 복수의 진료과 중 제1 진료과 및 제2 진료과를 선택하는 경우, 선별 정보 출력 화면은 제1 진료과 및 제2 진료과와 관련 있는 해부학적 지표에 관한 제4 선별 정보를 제공할 수 있다.The screening information SI may include an anatomical index related to the selected department information CAT among anatomical indices included in the medical information. The screening information SI may include an anatomical index related to the selected clinical department information CAT). For example, when the user selects a first department from among a plurality of departments, the screen for outputting selection information may provide third selection information regarding anatomical indicators related to the first department. When the user selects the first department and the second department from among the plurality of departments, the screen for outputting screening information may provide fourth selection information regarding anatomical indicators related to the first department and the second department.
분석 정보(AN)는 대상체에 관한 의료 데이터에 기초하여 획득된 종합 분석 결과 예컨대, 레포트 형식의 종합 분석 결과를 포함할 수 있다. The analysis information AN may include a comprehensive analysis result obtained based on medical data about an object, for example, a comprehensive analysis result in a report format.
코멘트(CMT)는 선별 정보에 기초하여 생성된 코멘트를 포함할 수 있다. 코멘트와 관련하여서는 본 명세서에서 상술한 내용이 적용될 수 있다. 코멘트는, 제1 진료과와 관련되어 획득된 선별 정보에 기초하여 제1 진료과와 관련한 코멘트를 생성할 수 있다. 예컨대, 도 81을 참조하면, 코멘트는, 신경과와 관련된 제1 선별 정보 및 제2 선별 정보와 관련된 정보를 포함할 수 있다.The comment CMT may include a comment generated based on selection information. Regarding the comments, the above-described contents in this specification may be applied. The comment may generate a comment related to the first department based on the selection information obtained in relation to the first department. For example, referring to FIG. 81 , the comment may include information related to first selection information and second selection information related to neurology.
코멘트는, 복수의 진료 과 중 어느 하나를 선택하는 사용자의 입력에 응답하여 변경될 수 있다. 예컨대, 도 81에서, 사용자가 영상학과 오브젝트를 선택함에 따라, 코멘트는 영상학과에서 필요로 하는 선별 정보를 포함하는 것으로 변경될 수 있다.The comment may be changed in response to a user's input for selecting any one of a plurality of medical departments. For example, in FIG. 81 , as the user selects an object of the department of radiology, the comment may be changed to include selection information required by the department of imaging.
상술한 이미지 분석 장치(2000)의 이미지 분석 방법들은 이미지 분석 장치(2000)의 제1 메모리(2020)에 저장될 수 있으며, 이미지 분석 장치(2000)의 제1 컨트롤러(2030)는 제1 메모리(2020)에 저장된 이미지 분석 방법들을 수행하도록 제공될 수 있다. The image analysis methods of the
본 출원에 개시된 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템은 뇌 영상을 분석하는 데 이용될 수 있다. The brain image analysis method, brain image analysis apparatus, and brain image analysis system disclosed in the present application may be used to analyze a brain image.
특히, 본 출원에 개시된 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템은, 정확도와 신뢰도가 높은 뇌 질환과 관련된 정보를 제공하는 모든 분야에 적용될 수 있다. 예를 들어, 뇌 질환을 진단하는 보조 지표를 계산하거나 뇌 질환과 관련된 보조 지표를 제공하는 건강 검진 분야 등에 활용될 수 있다. In particular, the brain image analysis method, the brain image analysis apparatus, and the brain image analysis system disclosed in the present application can be applied to all fields that provide information related to brain diseases with high accuracy and reliability. For example, it may be used in a field of health check-up that calculates an auxiliary index for diagnosing a brain disease or provides an auxiliary index related to a brain disease.
다만, 본 출원에 개시된 뇌 영상 분석 방법, 뇌 영상 분석 장치 및 뇌 영상 분석 시스템은, 뇌 영상뿐만 아니라 모든 의료 이미지에 대하여도 적용될 수 있다. 따라서, 뇌 질환을 진단하는 보조 지표뿐만 아니라 다양한 질환을 진단하는 것을 보조하기 위한 특정 부위의 길이, 형상, 체적, 두께 등과 관련된 형태학적 지표를 획득하고 제공하기 위한 모든 분야에 대하여 적용될 수 있다. However, the brain image analysis method, brain image analysis apparatus, and brain image analysis system disclosed in the present application may be applied not only to brain images but also to all medical images. Therefore, it can be applied to all fields for obtaining and providing morphological indicators related to the length, shape, volume, thickness, etc. of a specific region to assist in diagnosing various diseases as well as an auxiliary indicator for diagnosing brain diseases.
이상에서 실시 형태들에 설명된 특징, 구조, 효과 등은 본 발명의 적어도 하나의 실시 형태에 포함되며, 반드시 하나의 실시 형태에만 한정되는 것은 아니다. 나아가, 각 실시 형태에서 예시된 특징, 구조, 효과 등은 실시 형태들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시 형태들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Features, structures, effects, etc. described in the above embodiments are included in at least one embodiment of the present invention, and are not necessarily limited to only one embodiment. Furthermore, features, structures, effects, etc. illustrated in each embodiment can be combined or modified with respect to other embodiments by those of ordinary skill in the art to which the embodiments belong. Accordingly, the contents related to such combinations and modifications should be interpreted as being included in the scope of the present invention.
또한, 이상에서 실시 형태를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시 형태의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 즉, 실시 형태에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.In addition, although the embodiment has been mainly described in the above, this is only an example and does not limit the present invention, and those of ordinary skill in the art to which the present invention pertains to the above in the range that does not depart from the essential characteristics of the present embodiment. It will be appreciated that various modifications and applications not illustrated are possible. That is, each component specifically shown in the embodiment can be modified and implemented. And differences related to such modifications and applications should be construed as being included in the scope of the present invention defined in the appended claims.
Claims (22)
제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터를 획득함- 상기 제1 보정 파라미터는, 상기 제1 형태학적 값을 뇌 영상이 촬영된 스캔 조건을 고려하여 보정하는 제1 파라미터를 포함함-;
제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터를 획득함- 상기 제2 보정 파라미터는, 상기 제2 형태학적 값을 뇌 영상이 촬영된 스캔 조건을 고려하여 보정하는 제2 파라미터를 포함함-;
타겟 뇌 영상을 획득함;
상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득함;
상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득함; 및
상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득함;을 포함하되,
상기 제1 형태학적 값, 상기 제2 형태학적 값, 제1 뇌 형태학적 지표 및 제2 뇌 형태학적 지표는 뇌 요소의 부피, 길이, 폭, 두께 중 적어도 하나인,
뇌 영상 분석 방법.
A device for acquiring a brain image and performing a morphological analysis based on the brain image is a method for analyzing a brain image, the method comprising:
Obtaining a first correction parameter for correcting a first morphological value related to a first brain element - The first correction parameter is a first correction parameter for correcting the first morphological value in consideration of a scan condition in which a brain image is taken contains 1 parameter-;
Obtaining a second correction parameter for correcting a second morphological value related to a second brain element different from the first brain element - The second correction parameter is the second morphological value according to a scan condition in which a brain image is taken including a second parameter to be corrected in consideration of -;
acquiring a target brain image;
The first region by segmenting the target brain image into a plurality of brain regions including a first region corresponding to the first brain element, a second region corresponding to the second brain element, and a skull region; obtaining a third region associated with the second region and an inner region of the cranial region;
acquiring a first brain morphological index related to the first brain element based on voxel data corresponding to the first region, voxel data corresponding to the third region, and the first correction parameter; and
acquiring a second brain morphological index related to the second brain element based on voxel data corresponding to the second region, voxel data corresponding to the third region, and the second correction parameter;
wherein the first morphological value, the second morphological value, the first brain morphological indicator, and the second brain morphological indicator are at least one of a volume, a length, a width, and a thickness of a brain element;
Brain image analysis method.
상기 제1 뇌 형태학적 지표를 획득하는 것 또는 상기 제2 뇌 형태학적 지표를 획득하는 것은,
상기 제3 영역에 대응되는 복셀 데이터에 기초하여 상기 내부 영역과 관련된 기준 형태학적 값을 획득함;을 더 포함하며,
상기 제1 뇌 형태학적 지표를 획득하는 것은,
상기 제1 영역에 대응되는 복셀 데이터에 기초하여 상기 제1 뇌 요소와 관련된 제1 타겟 형태학적 값을 획득함;
상기 제1 타겟 형태학적 값과 상기 제1 보정 파라미터에 기초하여 제1 뇌 요소와 관련된 제1 보정된 형태학적 값을 계산함; 및
상기 제1 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제1 뇌 형태학적 지표를 계산함;을 포함하며,
상기 제2 뇌 형태학적 지표를 획득하는 것은,
상기 제2 영역에 대응되는 복셀 데이터에 기초하여 상기 제2 뇌 요소와 관련된 제2 타겟 형태학적 값을 획득함;
상기 제2 타겟 형태학적 값과 상기 제2 보정 파라미터에 기초하여 제2 뇌 요소와 관련된 제2 보정된 형태학적 값을 계산함; 및
상기 제2 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제2 뇌 형태학적 지표를 계산함;을 포함하는,
뇌 영상 분석 방법.
According to claim 1,
Obtaining the first brain morphological index or obtaining the second brain morphological index comprises:
The method further includes: obtaining a reference morphological value related to the inner region based on voxel data corresponding to the third region;
Acquiring the first brain morphological index comprises:
acquiring a first target morphological value related to the first brain element based on voxel data corresponding to the first region;
calculating a first corrected morphological value associated with a first brain element based on the first target morphological value and the first correction parameter; and
Calculating the first brain morphological index based on the first corrected morphological value and the reference morphological value;
Acquiring the second brain morphological index comprises:
acquiring a second target morphological value related to the second brain element based on voxel data corresponding to the second region;
calculating a second corrected morphological value associated with a second brain element based on the second target morphological value and the second correction parameter; and
Calculating the second brain morphological index based on the second corrected morphological value and the reference morphological value;
Brain image analysis method.
상기 제1 형태학적 값 및 상기 제2 형태학적 값은 제1 스캔 조건 하에서 획득된 값이며,
상기 타겟 뇌 영상은 상기 제1 스캔 조건 하에서 획득되며,
상기 제1 보정 파라미터는 상기 제1 형태학적 값에 기초하여 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 제1 뇌 요소와 관련된 제3 형태학적 값을 계산하기 위한 제1 파라미터를 포함하고,
상기 제2 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제2 스캔 조건 하에서 획득된 상기 제2 뇌 요소와 관련된 제4 형태학적 값을 계산하기 위한 제2 파라미터를 포함하며,
상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 제1 뇌 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며,
상기 제2 보정된 형태학적 값을 계산하는 것은, 상기 제2 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여, 상기 제2 스캔 조건 하에서의 상기 제2 뇌 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 획득하는 것을 포함하는,
뇌 영상 분석 방법.
3. The method of claim 2,
The first morphological value and the second morphological value are values obtained under the first scan condition,
The target brain image is obtained under the first scan condition,
the first calibration parameter is a first parameter for calculating a third morphological value associated with the first brain element obtained under a second scan condition different from the first scan condition based on the first morphological value including,
the second calibration parameter comprises a second parameter for calculating a fourth morphological value associated with the second brain element obtained under the second scan condition based on the second morphological value;
The calculating the first corrected morphological value comprises: the first correction being a morphological estimate of the first brain element under the second scan condition, based on the first target morphological value and the first correction parameter. Including obtaining a morphological value,
Calculating the second corrected morphological value includes the second correction being a morphological estimate of the second brain element under the second scan condition based on the second target morphological value and the second correction parameter. Including obtaining a morphological value,
Brain image analysis method.
상기 제1 보정 파라미터는, 상기 제1 형태학적 값에 기초하여 상기 제3 형태학적 값을 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고,
상기 제2 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제4 형태학적 값을 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며,
상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며,
상기 제2 보정된 형태학적 값을 계산하는 것은, 상기 제2 타겟 형태학적 값 및 상기 제2 선형 함수와 관련된 제2 파라미터 세트에 기초하여 상기 제2 보정된 형태학적 값을 획득하는 것을 포함하는,
뇌 영상 분석 방법.
4. The method of claim 3,
the first calibration parameter comprises a first parameter set associated with a first linear function for calculating the third morphological value based on the first morphological value;
the second calibration parameter comprises a second parameter set associated with a second linear function for calculating the fourth morphological value based on the second morphological value;
wherein calculating the first corrected morphological value comprises obtaining the first corrected morphological value based on the first target morphological value and a first parameter set associated with the first linear function,
wherein calculating the second corrected morphological value comprises obtaining the second corrected morphological value based on the second target morphological value and a second set of parameters associated with the second linear function.
Brain image analysis method.
상기 제1 뇌 요소에 대응되는 상기 제1 영역은, 상기 제2 뇌 요소에 대응되는 상기 제2 영역과 비교하여 상기 두개골 영역에 인접하여 위치하는,
뇌 영상 분석 방법.
According to claim 1,
The first region corresponding to the first brain element is located adjacent to the skull region compared to the second region corresponding to the second brain element,
Brain image analysis method.
상기 제1 뇌 요소는 제1 뇌 기능을 수행하는 요소와 관련되며, 상기 제2 뇌 요소는 상기 제1 뇌 기능과는 상이한 제2 뇌 기능을 수행하는 요소와 관련되는,
뇌 영상 분석 방법.
According to claim 1,
wherein the first brain component is associated with a component that performs a first brain function, and the second brain component is associated with a component that performs a second brain function that is different from the first brain function.
Brain image analysis method.
상기 제1 스캔 조건 및 상기 제2 스캔 조건은 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 중 적어도 하나와 관련된,
뇌 영상 분석 방법.
4. The method of claim 3,
The first scan condition and the second scan condition are a magnetic field strength related to the resolution of a brain image of the brain image acquisition device, a manufacturer of the brain image acquisition device, and a setting parameter related to a shape of a magnetic field generated by the brain imaging device associated with at least one of
Brain image analysis method.
상기 타겟 뇌 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고,
상기 제1 보정 파라미터 및 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득되되,
상기 제1 특성은 대상체의 나이 또는 성별과 관련되는,
뇌 영상 분석 방법.
According to claim 1,
The target brain image is obtained from a first object having a first characteristic,
The first correction parameter and the second correction parameter are obtained from a first brain image and a second brain image obtained from a second object having the first characteristic,
wherein the first characteristic is related to the age or sex of the subject;
Brain image analysis method.
상기 세그멘테이션은, 상기 타겟 뇌 영상에 기초하여 상기 제1 뇌 요소, 상기 제2 뇌 요소 및 상기 두개골을 포함하는 복수의 뇌 요소들에 대응되는 복수의 뇌 영역들을 획득하도록 제공되는 신경망을 사용하여 수행되는,
뇌 영상 분석 방법.
According to claim 1,
The segmentation is performed using a neural network provided to obtain a plurality of brain regions corresponding to a plurality of brain elements including the first brain element, the second brain element, and the skull based on the target brain image. felled,
Brain image analysis method.
상기 타겟 뇌 영상을 획득하는 것은,
초기 뇌 영상을 획득함;
상기 초기 뇌 영상을 전처리함;을 더 포함하되,
상기 초기 뇌 영상을 전처리하는 것은,
상기 초기 뇌 영상의 상기 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 상기 초기 뇌 영상의 상기 제2 영역에 대하여는 제1 방법과는 상이한 제2 방법의 전처리를 수행하는 것을 포함하되,
상기 세그멘테이션은 상기 전처리된 상기 타겟 뇌 영상에 기초하여 수행되는,
뇌 영상 분석 방법.
5. The method of claim 4,
Acquiring the target brain image is,
obtaining initial brain images;
Pre-processing the initial brain image; further comprising,
Pre-processing the initial brain image,
performing pre-processing on the first region of the initial brain image by a first method, and performing pre-processing of a second method different from the first method on the second region of the initial brain image,
The segmentation is performed based on the preprocessed target brain image,
Brain image analysis method.
상기 제1 보정된 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제1 뇌 요소와 관련된 체적값이며, 상기 제2 타겟 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제2 뇌 요소와 관련된 체적값이며,
상기 제1 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제1 보정된 형태학적 값으로 계산되며,
상기 제2 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제2 보정된 형태학적 값으로 계산되는,
뇌 영상 분석 방법.
5. The method of claim 4,
The first corrected morphological value is a volume value associated with the first brain element obtained with the target brain image, and the second target morphological value is a volume value associated with the second brain element obtained with the target brain image. is the value,
The first brain morphological index is calculated as the first corrected morphological value with respect to the reference morphological value,
wherein the second brain morphological index is calculated as the second corrected morphological value with respect to the reference morphological value.
Brain image analysis method.
타겟 뇌 영상을 획득하는 영상 획득부; 및
상기 타겟 뇌 영상에 기초하여 뇌 영상 분석 정보를 제공하는 컨트롤러;를 포함하되,
상기 컨트롤러는,
제1 뇌 요소와 관련된 제1 형태학적 값을 보정하기 위한 제1 보정 파라미터-상기 제1 보정 파라미터는, 상기 제1 형태학적 값을 뇌 영상이 촬영된 스캔 조건을 고려하여 보정하는 제1 파라미터를 포함함-를 획득하고, 제1 뇌 요소와 다른 제2 뇌 요소와 관련된 제2 형태학적 값을 보정하기 위한 제2 보정 파라미터- 상기 제2 보정 파라미터는, 상기 제2 형태학적 값을 뇌 영상이 촬영된 스캔 조건을 고려하여 보정하는 제2 파라미터를 포함함-를 획득하고, 타겟 뇌 영상을 획득하고, 상기 타겟 뇌 영상을 상기 제1 뇌 요소에 대응되는 제1 영역, 상기 제2 뇌 요소에 대응되는 제2 영역 및 두개골 영역을 포함하는 복수의 뇌 영역들로 세그멘테이션을 수행함으로써, 상기 제1 영역, 상기 제2 영역 및 상기 두개골 영역의 내부 영역과 관련된 제3 영역을 획득하고, 상기 제1 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제1 보정 파라미터에 기초하여 상기 제1 뇌 요소와 관련된 제1 뇌 형태학적 지표를 획득하고, 상기 제2 영역에 대응되는 복셀 데이터, 상기 제3 영역에 대응되는 복셀 데이터 및 상기 제2 보정 파라미터에 기초하여 상기 제2 뇌 요소와 관련된 제2 뇌 형태학적 지표를 획득하도록 구성되되,
상기 제1 형태학적 값, 상기 제2 형태학적, 제1 뇌 형태학적 지표 및 제2 뇌 형태학적 지표는 뇌 요소의 부피, 길이, 폭, 두께 중 적어도 하나와 관련된,
뇌 영상 분석 장치.
A device for analyzing brain images, comprising:
an image acquisition unit for acquiring a target brain image; and
A controller that provides brain image analysis information based on the target brain image; including,
The controller is
A first correction parameter for correcting a first morphological value related to a first brain element - The first correction parameter is a first parameter for correcting the first morphological value in consideration of a scan condition in which a brain image is taken. a second correction parameter for obtaining a including- and correcting a second morphological value associated with a second brain element different from the first brain element, wherein the second correction parameter includes: Obtaining - including a second parameter to be corrected in consideration of the photographed scan condition, obtaining a target brain image, and applying the target brain image to a first region corresponding to the first brain element and the second brain element By performing segmentation into a plurality of brain regions including a corresponding second region and a cranial region, a third region associated with the first region, the second region, and an inner region of the cranial region is obtained, and the first region a first brain morphological index related to the first brain element is obtained based on voxel data corresponding to the region, voxel data corresponding to the third region, and the first correction parameter, and voxels corresponding to the second region configured to obtain a second brain morphological index associated with the second brain element based on data, voxel data corresponding to the third region, and the second correction parameter,
wherein the first morphological value, the second morphology, the first brain morphological indicator and the second brain morphological indicator are related to at least one of a volume, a length, a width, and a thickness of a brain element;
Brain image analysis device.
상기 컨트롤러는,
상기 제3 영역에 대응되는 복셀 데이터에 기초하여 상기 내부 영역과 관련된 기준 형태학적 값을 획득하도록 구성되며,
상기 제1 영역에 대응되는 복셀 데이터에 기초하여 상기 제1 뇌 요소와 관련된 제1 타겟 형태학적 값을 획득하고, 상기 제1 타겟 형태학적 값과 상기 제1 보정 파라미터에 기초하여 제1 뇌 요소와 관련된 제1 보정된 형태학적 값을 계산하고, 상기 제1 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제1 뇌 형태학적 지표를 계산하여 상기 제1 뇌 형태학적 지표를 획득하며,
상기 제2 영역에 대응되는 복셀 데이터에 기초하여 상기 제2 뇌 요소와 관련된 제2 타겟 형태학적 값을 획득하고, 상기 제2 타겟 형태학적 값과 상기 제2 보정 파라미터에 기초하여 제2 뇌 요소와 관련된 제2 보정된 형태학적 값을 계산하고, 상기 제2 보정된 형태학적 값 및 상기 기준 형태학적 값에 기초하여 상기 제2 뇌 형태학적 지표를 계산하여 상기 제2 뇌 형태학적 지표를 획득하도록 구성된,
뇌 영상 분석 장치.
13. The method of claim 12,
The controller is
and to obtain a reference morphological value related to the inner region based on voxel data corresponding to the third region;
A first target morphological value related to the first brain element is obtained based on voxel data corresponding to the first region, and a first brain element and a first correction parameter are obtained based on the first target morphological value and the first correction parameter. calculating a related first corrected morphological value, calculating the first brain morphological index based on the first corrected morphological value and the reference morphological value to obtain the first brain morphological index,
a second target morphological value related to the second brain element is obtained based on voxel data corresponding to the second region, and a second brain element and and calculate a related second corrected morphological value, and calculate the second brain morphological indicator based on the second corrected morphological value and the reference morphological value to obtain the second brain morphological indicator. ,
Brain image analysis device.
상기 제1 형태학적 값 및 상기 제2 형태학적 값은 제1 스캔 조건 하에서 획득된 값이며,
상기 타겟 뇌 영상은 상기 제1 스캔 조건 하에서 획득되며,
상기 제1 보정 파라미터는 상기 제1 형태학적 값에 기초하여 상기 제1 스캔 조건과는 상이한 제2 스캔 조건 하에서 획득된 상기 제1 뇌 요소와 관련된 제3 형태학적 값을 계산하기 위한 제1 파라미터를 포함하고,
상기 제2 보정 파라미터는 상기 제2 형태학적 값에 기초하여 상기 제2 스캔 조건 하에서 획득된 상기 제2 뇌 요소와 관련된 제4 형태학적 값을 계산하기 위한 제2 파라미터를 포함하며,
상기 컨트롤러는,
상기 제1 타겟 형태학적 값 및 상기 제1 보정 파라미터에 기초하여 상기 제2 스캔 조건 하에서의 상기 제1 뇌 요소의 형태학적 추정값인 상기 제1 보정된 형태학적 값을 계산하며, 상기 제2 타겟 형태학적 값 및 상기 제2 보정 파라미터에 기초하여 상기 제2 스캔 조건 하에서의 상기 제2 뇌 요소의 형태학적 추정값인 상기 제2 보정된 형태학적 값을 계산하도록 구성된,
뇌 영상 분석 장치.
14. The method of claim 13,
The first morphological value and the second morphological value are values obtained under the first scan condition,
The target brain image is obtained under the first scan condition,
the first calibration parameter is a first parameter for calculating a third morphological value associated with the first brain element obtained under a second scan condition different from the first scan condition based on the first morphological value including,
the second calibration parameter comprises a second parameter for calculating a fourth morphological value associated with the second brain element obtained under the second scan condition based on the second morphological value;
The controller is
calculate the first corrected morphological value, which is a morphological estimate of the first brain element under the second scan condition, based on the first target morphological value and the first correction parameter, wherein the second target morphology configured to calculate the second corrected morphological value that is a morphological estimate of the second brain element under the second scan condition based on the value and the second correction parameter;
Brain image analysis device.
상기 제1 보정 파라미터는, 상기 제1 형태학적 값에 기초하여 상기 제3 형태학적 값을 계산하기 위한 제1 선형 함수와 관련된 제1 파라미터 세트를 포함하고,
상기 제2 보정 파라미터는, 상기 제2 형태학적 값에 기초하여 상기 제4 형태학적 값을 계산하기 위한 제2 선형 함수와 관련된 제2 파라미터 세트를 포함하며,
상기 제1 보정된 형태학적 값을 계산하는 것은, 상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 획득하는 것을 포함하며,
상기 컨트롤러는,
상기 제1 타겟 형태학적 값 및 상기 제1 선형 함수와 관련된 제1 파라미터 세트에 기초하여 상기 제1 보정된 형태학적 값을 계산하며, 상기 제2 타겟 형태학적 값 및 상기 제2 선형 함수와 관련된 제2 파라미터 세트에 기초하여 상기 제2 보정된 형태학적 값을 계산하도록 구성된,
뇌 영상 분석 장치.
15. The method of claim 14,
the first calibration parameter comprises a first parameter set associated with a first linear function for calculating the third morphological value based on the first morphological value;
the second calibration parameter comprises a second parameter set associated with a second linear function for calculating the fourth morphological value based on the second morphological value;
wherein calculating the first corrected morphological value comprises obtaining the first corrected morphological value based on the first target morphological value and a first parameter set associated with the first linear function,
The controller is
calculate the first corrected morphological value based on the first target morphological value and a first parameter set associated with the first linear function, wherein the second target morphological value and the second linear function are associated with the second target morphological value. configured to calculate the second corrected morphological value based on two parameter sets;
Brain image analysis device.
상기 제1 뇌 요소에 대응되는 상기 제1 영역은, 상기 제2 뇌 요소에 대응되는 상기 제2 영역과 비교하여 상기 두개골 영역에 인접하여 위치하는,
뇌 영상 분석 장치.
13. The method of claim 12,
The first region corresponding to the first brain element is located adjacent to the skull region compared to the second region corresponding to the second brain element,
Brain image analysis device.
상기 제1 뇌 요소는 제1 뇌 기능을 수행하는 요소와 관련되며, 상기 제2 뇌 요소는 상기 제1 뇌 기능과는 상이한 제2 뇌 기능을 수행하는 요소와 관련되는,
뇌 영상 분석 장치.
13. The method of claim 12,
wherein the first brain component is associated with a component that performs a first brain function, and the second brain component is associated with a component that performs a second brain function that is different from the first brain function.
Brain image analysis device.
상기 제1 스캔 조건 및 상기 제2 스캔 조건은 뇌 영상 획득 장치의 뇌 영상의 해상도와 관련되는 자기장 강도, 상기 뇌 영상 획득 장치의 제조사 및 상기 뇌 영상 획득 장치의 생성되는 자기장의 형태와 관련된 세팅 파라미터 세팅 파라미터 중 적어도 하나와 관련된,
뇌 영상 분석 장치.
15. The method of claim 14,
The first scan condition and the second scan condition are a magnetic field strength related to the resolution of a brain image of the brain image acquisition device, a manufacturer of the brain image acquisition device, and a setting parameter related to a shape of a magnetic field generated by the brain imaging device associated with at least one of the setting parameters;
Brain image analysis device.
상기 컨트롤러는,
상기 타겟 뇌 영상은 제1 특성을 가지는 제1 대상체로부터 획득되고,
상기 제1 보정 파라미터 및 상기 제2 보정 파라미터는, 상기 제1 특성을 가지는 제2 대상체로부터 획득된 제1 뇌 영상 및 제2 뇌 영상으로부터 획득되되,
상기 제1 특성은 대상체의 나이 또는 성별과 관련되는,
뇌 영상 분석 장치.
13. The method of claim 12,
The controller is
The target brain image is obtained from a first object having a first characteristic,
The first correction parameter and the second correction parameter are obtained from a first brain image and a second brain image obtained from a second object having the first characteristic,
wherein the first characteristic is related to the age or sex of the subject;
Brain image analysis device.
상기 세그멘테이션은, 상기 타겟 뇌 영상에 기초하여 상기 제1 뇌 요소, 상기 제2 뇌 요소 및 상기 두개골을 포함하는 복수의 뇌 요소들에 대응되는 복수의 뇌 영역들을 획득하도록 제공되는 신경망을 사용하여 수행되는,
뇌 영상 분석 장치.
13. The method of claim 12,
The segmentation is performed using a neural network provided to obtain a plurality of brain regions corresponding to a plurality of brain elements including the first brain element, the second brain element, and the skull based on the target brain image. felled,
Brain image analysis device.
상기 컨트롤러는,
상기 타겟 뇌 영상을 전처리하며, 상기 세그멘테이션은 상기 전처리된 상기 타겟 뇌 영상에 기초하여 수행하되, 상기 제1 영역에 대하여는 제1 방법으로 전처리를 수행하되, 상기 제2 영역에 대하여는 제1 방법과는 상이한 전처리를 수행하도록 구성되는,
뇌 영상 분석 장치.
16. The method of claim 15,
The controller is
The target brain image is preprocessed, and the segmentation is performed based on the preprocessed target brain image, and the first region is preprocessed by a first method, and the second region is different from the first method configured to perform different pretreatments,
Brain image analysis device.
상기 제1 보정된 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제1 뇌 요소와 관련된 체적값이며, 상기 제2 타겟 형태학적 값은 상기 타겟 뇌 영상으로 획득된 상기 제2 뇌 요소와 관련된 체적값이며,
상기 제1 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제1 보정된 형태학적 값으로 계산되며,
상기 제2 뇌 형태학적 지표는 상기 기준 형태학적 값에 대한 상기 제2 보정된 형태학적 값으로 계산되는,
뇌 영상 분석 장치.16. The method of claim 15,
The first corrected morphological value is a volume value associated with the first brain element obtained with the target brain image, and the second target morphological value is a volume value associated with the second brain element obtained with the target brain image. is the value,
The first brain morphological index is calculated as the first corrected morphological value with respect to the reference morphological value,
wherein the second brain morphological index is calculated as the second corrected morphological value with respect to the reference morphological value.
Brain image analysis device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200187931A KR102313656B1 (en) | 2020-12-30 | 2020-12-30 | Method for, device for, and system for analazing brain image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200187931A KR102313656B1 (en) | 2020-12-30 | 2020-12-30 | Method for, device for, and system for analazing brain image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102313656B1 true KR102313656B1 (en) | 2021-10-19 |
KR102313656B9 KR102313656B9 (en) | 2022-04-11 |
Family
ID=78228470
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200187931A KR102313656B1 (en) | 2020-12-30 | 2020-12-30 | Method for, device for, and system for analazing brain image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102313656B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230070084A (en) | 2021-11-12 | 2023-05-22 | 조선대학교산학협력단 | Providing method of diagnostic information for classification of advanced stages of Alzheimer's disease using 3D convolutional neural network |
KR20240085763A (en) | 2022-12-08 | 2024-06-17 | 사회복지법인 삼성생명공익재단 | Method and apparatus for analysing cerebellar atrophy |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209785A (en) * | 1999-11-19 | 2001-08-03 | Fujitsu Ltd | Device and method for image processing and image processing program storage medium |
KR20140144065A (en) * | 2013-06-10 | 2014-12-18 | 삼성전자주식회사 | Apparatus and method for photographing medical image, and method for generating personalized parameter value |
JP2019005557A (en) * | 2017-06-22 | 2019-01-17 | キヤノンメディカルシステムズ株式会社 | Image processing device, magnetic resonance imaging device, and image processing program |
KR20200106602A (en) * | 2019-03-05 | 2020-09-15 | 뉴로핏 주식회사 | Method and apparatus for brain image correction using brain structure |
-
2020
- 2020-12-30 KR KR1020200187931A patent/KR102313656B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001209785A (en) * | 1999-11-19 | 2001-08-03 | Fujitsu Ltd | Device and method for image processing and image processing program storage medium |
KR20140144065A (en) * | 2013-06-10 | 2014-12-18 | 삼성전자주식회사 | Apparatus and method for photographing medical image, and method for generating personalized parameter value |
JP2019005557A (en) * | 2017-06-22 | 2019-01-17 | キヤノンメディカルシステムズ株式会社 | Image processing device, magnetic resonance imaging device, and image processing program |
KR20200106602A (en) * | 2019-03-05 | 2020-09-15 | 뉴로핏 주식회사 | Method and apparatus for brain image correction using brain structure |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230070084A (en) | 2021-11-12 | 2023-05-22 | 조선대학교산학협력단 | Providing method of diagnostic information for classification of advanced stages of Alzheimer's disease using 3D convolutional neural network |
KR20240085763A (en) | 2022-12-08 | 2024-06-17 | 사회복지법인 삼성생명공익재단 | Method and apparatus for analysing cerebellar atrophy |
Also Published As
Publication number | Publication date |
---|---|
KR102313656B9 (en) | 2022-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102313662B1 (en) | Device and method for determining quality of image | |
KR102313652B1 (en) | Method for, device for, and system for analazing medical image | |
JP7319723B2 (en) | Medical image analysis method, medical image analysis device and medical image analysis system | |
KR102243830B1 (en) | System for providing integrated medical diagnostic service and method thereof | |
US8634616B2 (en) | Method, apparatus, and computer program product for acquiring medical image data | |
EP3608871A1 (en) | Plane selection using localizer images | |
EP3496034B1 (en) | Identification of critical findings in imaging scans | |
US11087465B2 (en) | Medical image processing apparatus, medical image processing method, and medical image processing program | |
KR102313656B1 (en) | Method for, device for, and system for analazing brain image | |
KR102313658B1 (en) | Method for, device for, and system for analazing brain image | |
US20190267132A1 (en) | Medical image display device, method, and program | |
CN109741812B (en) | Method for transmitting medical images and medical imaging device for carrying out said method | |
US11257211B2 (en) | Medical image processing apparatus, medical image processing system, and medical image processing method | |
US20140270442A1 (en) | Vascular territory segmentation using mutual clustering information from image space and label space | |
US20150260819A1 (en) | Transfer of validated cad training data to amended mr contrast levels | |
US10489905B2 (en) | Method and apparatus for presentation of medical images | |
JP2013220319A (en) | Image processing apparatus, method, and program | |
EP3851049A1 (en) | Medical image processing device, method, and program | |
JP2019536515A (en) | Apparatus and method for quality assessment of medical image data sets | |
US11923069B2 (en) | Medical document creation support apparatus, method and program, learned model, and learning apparatus, method and program | |
US20190019304A1 (en) | Medical image processing apparatus, method, and program | |
US11551351B2 (en) | Priority judgement device, method, and program | |
US20060257007A1 (en) | Method and device for analysis of three-dimensional digital image data | |
US20200160516A1 (en) | Priority judgement device, method, and program | |
US20220108451A1 (en) | Learning device, method, and program, medical image processing apparatus, method, and program, and discriminator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] |