KR20220052166A - Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm - Google Patents

Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm Download PDF

Info

Publication number
KR20220052166A
KR20220052166A KR1020200136193A KR20200136193A KR20220052166A KR 20220052166 A KR20220052166 A KR 20220052166A KR 1020200136193 A KR1020200136193 A KR 1020200136193A KR 20200136193 A KR20200136193 A KR 20200136193A KR 20220052166 A KR20220052166 A KR 20220052166A
Authority
KR
South Korea
Prior art keywords
image
neural network
thyroid
computed tomography
algorithm
Prior art date
Application number
KR1020200136193A
Other languages
Korean (ko)
Other versions
KR102537470B1 (en
Inventor
이정규
이재성
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020200136193A priority Critical patent/KR102537470B1/en
Publication of KR20220052166A publication Critical patent/KR20220052166A/en
Application granted granted Critical
Publication of KR102537470B1 publication Critical patent/KR102537470B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Pulmonology (AREA)
  • General Physics & Mathematics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a Graves' orbitopathy (GO) diagnosis method using orbital computed tomography (CT) based on a neural network-based algorithm and, more specifically, to a Graves' orbitopathy diagnosis method using orbital computed tomography (CT) based on a neural network-based algorithm which develops a new neural network which can be applied to Graves' orbitopathy (GO) diagnosis through CT, thereby reducing time required for GO diagnosis while maintaining diagnosis accuracy (AUC) through a CT image.

Description

신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증(GO) 진단 방법{Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm}Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm}

본 발명은 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법에 관한 것으로, 보다 상세하게는 CT를 통해서 갑상선안병증 진단에 적용할 수 있는 새로운 인공신경망(NN: Neural Network)을 개발함으로써 CT 이미지를 통한 진단 정확도(AUC)는 유지하면서 갑상선안병증 진단에 요구되는 시간은 줄일 수 있는 신경망 기반 알고리즘에 근거한 안와 CT를 이용한 갑상선안병증 진단 방법에 관한 것이다.The present invention relates to a method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT) based on a neural network-based algorithm. ), it relates to a method for diagnosing thyroid eye disease using orbital CT based on a neural network-based algorithm that can reduce the time required for thyroid eye disease diagnosis while maintaining diagnostic accuracy (AUC) through CT images.

갑상선안병증은 주로 그레이브스 질병과 관련이 있는 자가면역 장애질환으로, 그레이브스병 환자의 25%~50% 정도 관찰되는 비교적 흔한 갑상샘외 합병증이다. 일반적으로 눈꺼풀 뒷당김(eyelid retraction), 안구돌출, 눈부심, 압박감 및 복시 등의 증상이 나타나며 시간이 경과함에 따라 호전되는 양상을 보인다. 그러나 갑상선안병증 환자들의 3-5%에서는 실명과 같은 심각한 합병증이 발생할 수 있다. 따라서 갑상선안병증을 앓고 있는 환자의 감별진단 및 예후예측을 명확하도록 하기 위해서 컴퓨터 단층촬영(CT) 방법이 활용되고 있다. CT는 이전에는 갑상선안병증을 진단하고 적절한 치료 방법을 결정하는 목적으로 사용되었으나 점차 적응증이 증가하여 안구돌출 정도 평가나 압박성 시신경증 여부 확인, 심지어 갑상선안병증의 활동성 평가에 까지 널리 사용되고 있다. 이러한 적응증의 확대에도 불구하고 안와 CT 결과에 근거한 갑상선안병증 진단에는 몇 가지 단점이 있다.Thyroid ophthalmopathy is an autoimmune disorder mainly associated with Graves' disease, and is a relatively common extrathyroid complication observed in 25% to 50% of Graves' disease patients. In general, symptoms such as eyelid retraction, protrusion, glare, pressure, and diplopia appear and improve over time. However, in 3-5% of patients with thyroid eye disease, serious complications such as blindness may occur. Therefore, the computed tomography (CT) method is being used to clarify the differential diagnosis and prognosis of patients suffering from thyroid ophthalmopathy. CT was previously used for the purpose of diagnosing thyroid ophthalmopathy and determining an appropriate treatment method, but as the indications gradually increased, it is widely used to evaluate the degree of ocular protrusion, to confirm the presence of compressive optic neuropathy, and even to evaluate the activity of thyroid ophthalmopathy. Despite the expansion of these indications, the diagnosis of thyroid ophthalmopathy based on orbital CT results has several drawbacks.

우선 CT 소견만으로는 안와지방 및 외안근의 미세한 변화를 식별하기 어렵다. 안와 내 구조물들의 정상범위에 대해 널리 인정된 연구가 없기 때문에 CT 결과만으로는 안와의 변화를 명확히 구분하기 어려운 단점이 있다. CT 분석을 위해 여러 소프트웨어 프로그램이 개발되고 있지만, CT 결과를 분석하고 갑상선안병증 환자의 진단과 예후를 예측하기 위한 객관적인 결과를 제공하기 위해 보다 직관적이고 쉬운 방법이 필요하다. First of all, it is difficult to identify minute changes in orbital fat and extraocular muscle only by CT findings. Since there is no widely accepted study on the normal range of structures within the orbit, it is difficult to clearly distinguish changes in the orbit only with CT results. Although several software programs are being developed for CT analysis, a more intuitive and easy method is needed to analyze CT results and provide objective results for predicting the diagnosis and prognosis of thyroid eye disease patients.

최근에는 영상분석을 위한 신경망(NN: Neural Network) 기반의 여러 가지 방법이 개발되어 녹내장, 당뇨망막병증, 연령관련 황반변성 등 다양한 안질환을 진단하는 데 적용되고 있다. 그러나 이런 기 개발된 인공신경망은 일반적인 영상분석을 위해 개발되었기 때문에 안와질환과 같이 구조적인 변화를 감지하기 위해 여러 축방향으로 수십장의 전문영상이 필요한 질병에는 불충분할 수 있다.Recently, various neural network (NN)-based methods for image analysis have been developed and applied to diagnose various eye diseases such as glaucoma, diabetic retinopathy, and age-related macular degeneration. However, since this pre-developed artificial neural network was developed for general image analysis, it may not be sufficient for diseases that require dozens of specialized images in multiple axial directions to detect structural changes, such as orbital disease.

본 발명은 이와 같은 문제점을 감안하여 안와 CT를 이용하여 갑상선안병증의 진단 및 중증도 평가에 인공신경망(NN: Neural Network)의 적용 가능성을 입증하고, 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법을 제공하는 것이다.In view of such problems, the present invention demonstrates the applicability of an artificial neural network (NN) to the diagnosis and severity evaluation of thyroid ophthalmopathy using orbital CT, and orbital computed tomography (CT) based on a neural network-based algorithm. To provide a method for diagnosing thyroid ophthalmopathy using

본 발명의 실시예들에 따른 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법은 갑상선안병증을 앓고 있는 환자의 CT영상 이미지를 수집하는 단계;와 상기 수집한 CT 영상의 각각에 대한 정보 처리 파이프라인을 만들어 상기 CT영상을 전처리하는 단계;와 상기 전처리한 CT영상을 기반으로 진단 상황을 상정하여 데이터를 구성하는 단계;와 상기 수집한 영상들의 조합 데이터 셋트를 만들어 인공신경망(NN: Neural Network)를 학습시키는 단계;와 상기 인공신경망(NN: Neural Network) 학습을 n번 반복하여, n개의 진단 정확도 값을 평균을 내어 상기 인공신경망(NN: Neural Network)의 최적 진단 성능을 내는 단계; 및 상기 최적의 진단 성능을 내는 인공신경망(NN: Neural Network)의 알고리즘 통해, 상기 CT 영상물로 갑상선 안병증을 진단하는 단계;를 포함한다.A method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT) based on a neural network-based algorithm according to embodiments of the present invention comprises: collecting CT image images of a patient suffering from thyroid ophthalmopathy; and the collected CT images Pre-processing the CT image by creating an information processing pipeline for each of the CT images; and constructing data assuming a diagnosis situation based on the pre-processed CT image; and creating a combined data set of the collected images Learning a neural network (NN); and repeating the neural network (NN) learning n times, averaging n diagnostic accuracy values, and optimal diagnosis of the neural network (NN) performance; and diagnosing thyroid ophthalmopathy using the CT image through an algorithm of a neural network (NN) that produces the optimal diagnostic performance.

본 발명의 실시예들에 따라, 상기 갑상선안병증 환자의 CT영상을 전처리하는 단계는 상기 수집한 갑상선안병증의 환자 CT영상 이미지 데이터셋을 기반으로, 상기 갑상선안병증 CT영상 이미지의 축상(Axial), 관상(Coronal), 시상(Sagittal) 부분의 영상정보데이터를 얻는 단계; 및 상기 CT영상 이미지의 축상(Axial), 관상(Coronal), 시상(Sagittal) 부분의 영상정보를 기반으로, 영상 정보 처리 파이프라인을 만들어 전처리하는 단계;를 포함한다.According to embodiments of the present invention, the pre-processing of the CT image of the thyroid eye disease patient is based on the collected CT image image dataset of the thyroid eye disease patient, and the axial (axial) image of the thyroid eye disease CT image image. ), obtaining image information data of coronal, sagittal parts; and pre-processing by creating an image information processing pipeline based on the image information of the axial, coronal, and sagittal portions of the CT image image.

본 발명의 실시예들에 따라, 상기 CT영상을 전처리하는 단계는 상기 최초 입력된 축상(Axial), 관상(Coronal), 시상(Sagittal) CT 영상에 대해 보간법(Interpolation)을 활용하여 크기를 정규화하는 단계;와 상기 CT영상 이미지에서 안구와 관련된 부분을 추출하는 단계;와 상기 안구와 관련된 부분만 추출된 CT영상 이미지 이 외, 주변의 불필요한 검은 영역으로 표시되는 단계;와 상기 CT영상 이미지에서 검은 영역으로 표시한 영역을 삭제하는 단계;와 상기 안구 부분 이외 주변의 이미지가 삭제된 CT 영상에 대해 보간법(Interpolation)을 통해 이미지의 크기를 정규화하는 단계; 및 상기 Hounsfield unit 값을 통해, 지방과 근육을 제외한 나머지 부분을 제거한 뒤, 영상의 픽셀 값들을 0~1 사이로 정규화하는 단계;를 포함한다. According to embodiments of the present invention, the step of pre-processing the CT image is to normalize the size by using interpolation for the initially input axial, coronal, and sagittal CT images. and extracting a portion related to the eyeball from the CT image image; and displaying an unnecessary black area in the vicinity other than the CT image image from which only the portion related to the eye is extracted; and a black area in the CT image image Deleting the area marked with ; and normalizing the size of the image through interpolation with respect to the CT image from which images around the eyeball have been deleted; and normalizing the pixel values of the image to between 0 and 1 after removing the remaining parts except for fat and muscle through the Hounsfield unit value.

본 발명의 실시예들에 따라, 상기 Hounsfield unit 값을 이용한 상기 CT영상 정규화 단계는 사람의 안구가 2개인 점에 착안하여 각 안구로부터 얻을 수 있는 수많은 정보를 기준 없이 하나의 정보로 포괄하여 처리하지 않고, Half Depthwise Convolution 구조를 추가하여 진단 성능의 한계를 향상시키는 단계를 포함한다. According to the embodiments of the present invention, the CT image normalization step using the Hounsfield unit value is based on the fact that a person has two eyes, so that a large number of information obtainable from each eye is included and processed as one piece of information without a standard. and adding a Half Depthwise Convolution structure to improve the limit of diagnostic performance.

본 발명의 실시예들에 따라, 상기 조합 데이터 셋트를 만드는 단계는 상기 전처리한 CT영상을 기반으로, 4가지 진단 상황을 상정하여 데이터를 구성하는 단계; 및 상기 축(Axial), 중앙(Coronal), 수직(Sagittal) CT 영상을 통해 7조합의 데이터 셋트를 만들어 내는 단계;를 포함한다.According to embodiments of the present invention, the step of creating the combined data set comprises: configuring data based on the pre-processed CT image, assuming four diagnostic situations; and generating a data set of 7 combinations through the axial, coronal, and sagittal CT images.

본 발명의 실시예들에 따라, 상기 CT영상 이미지의 축(Axial), 중앙(Coronal), 수직(Sagittal) 부분의 영상정보 처리 파이브라인은, 상기 영상 정보 처리 파이프라인을 별도로 둘 수 있도록 설계함으로써 학습에 필요한 계산량을 유동적으로 조절할 수 있는 단계;를 포함한다.According to embodiments of the present invention, the image information processing pipeline of the axial, coronal, and sagittal parts of the CT image image is designed so that the image information processing pipeline can be placed separately. It includes; a step of flexibly adjusting the amount of calculation required for learning.

본 발명의 실시예들에 따라, 상기 인공신경망(NN: Neural Network) 학습을 시키는 단계는 상기 각각의 CT영상 데이터의 80% 만큼의 CT 영상을 활용하여, 상기 인공신경망(NN: Neural Network)을 학습시키며, 나머지 20%의 상기 CT 영상들을 활용하여 진단 정확도(AUC)를 측정하는 단계;를 포함한다.According to embodiments of the present invention, in the step of training the neural network (NN), the artificial neural network (NN: Neural Network) is used by using as much as 80% of the CT images of the respective CT image data. and measuring the diagnostic accuracy (AUC) using the remaining 20% of the CT images.

본 발명의 실시예들에 따라, 상기 인공신경망(NN: Neural Network)의 알고리즘은 상기 갑상선 안병증을 여부를 진단하고, 상기 갑상선 안병증의 중증도롤 진단하는 계산식을 만들어 내는 단계;를 포함한다.According to embodiments of the present invention, the algorithm of the artificial neural network (NN) includes the steps of diagnosing whether the thyroid ophthalmopathy is present, and generating a calculation formula for diagnosing the severity of the thyroid ophthalmopathy.

본 발명의 실시예들에 따라, 상기 인공신경망(NN: Neural Network)의 학습을 n번 반복하여, 상기 n개의 진단 결과를 기반으로 하여 정확도 값을 도출하고, 상기 도출된 n개의 정확도 값의 평균을 내어 상기 인공신경망(NN: Neural Network)의 최적 진단 성능 사양(SPEC) 및 성능을 도출하는 단계;를 포함한다.According to embodiments of the present invention, the learning of the neural network (NN) is repeated n times to derive an accuracy value based on the n diagnosis results, and an average of the derived n accuracy values and deriving the optimal diagnostic performance specification (SPEC) and performance of the artificial neural network (NN).

본 발명의 실시예들에 따라, 상기 갑상선 안병증 진단은 상기 반복된 학습을 거친 인공신경망(NN: Neural Network)의 알고리즘을 기반으로, 상기 CT 영상물로 갑상선 안병증을 진단하는 단계;를 포함한다.According to embodiments of the present invention, the diagnosis of thyroid ophthalmopathy includes diagnosing thyroid ophthalmopathy with the CT image based on an algorithm of an artificial neural network (NN) that has undergone the repeated learning. .

이상에서 설명한 바와 같은 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법에 따르면 다음과 같은 효과가 있다.According to the method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT) based on a neural network-based algorithm as described above, the following effects are obtained.

첫째, CT 이미지를 통한 진단 정확도(AUC)는 유지하면서 갑상선안병증 진단에 요구되는 시간을 줄일 수 있다.First, it is possible to reduce the time required for thyroid ophthalmopathy diagnosis while maintaining the diagnostic accuracy (AUC) through CT images.

둘째, 갑상선 안병증 환자 CT 영상 각각에 대한 정보 처리 파이프라인을 별도로 둘 수 있도록 설계함으로써 학습에 필요한 계산량을 유동적으로 조절할 수 있다.Second, by designing a separate information processing pipeline for each CT image of a patient with thyroid ophthalmopathy, the amount of computation required for learning can be flexibly adjusted.

셋째, CT 이미지를 통해 갑상선안병증 환자의 중증도를 자동화된 판독과정을 통해 판단함으로써 진료과정에서 치료방법 선택 및 예후예측에 응용할 수 있다.Third, by judging the severity of thyroid eye disease patients through an automated reading process through CT images, it can be applied to treatment method selection and prognosis prediction in the treatment process.

넷째, Half Depthwise Convolution 구조를 추가하여 일측성 혹은 비대칭적인 안구돌출(Exophthalmos)의 환자를 판단함으로써 진단 정확도(AUC)를 보장할 수 있다.Fourth, by adding a Half Depthwise Convolution structure to determine a patient with unilateral or asymmetric exophthalmos, the diagnostic accuracy (AUC) can be guaranteed.

도1은, 본 발명의 단계별 흐름도이다.
도2와 도3은, 본 발명의 CT영상 전처리 흐름도이다.
도4는, 본 발명인 NN(Neural Network)에 입력할 CT 이미지 입력값에 따른 성능 결과값을 나타낸 표.
도5는, 본 발명으로 도출된 CT 결과와 전문임상 CT와의 진단 정확도(AUC)를 비교하기 위해 ROC 곡선을 나타낸 그래프.
1 is a step-by-step flowchart of the present invention.
2 and 3 are flowcharts of CT image preprocessing according to the present invention.
4 is a table showing performance results according to CT image input values to be input to a neural network (NN) according to the present invention.
5 is a graph showing an ROC curve for comparing the diagnostic accuracy (AUC) between the CT results derived by the present invention and professional clinical CT.

첨부한 도면을 참조하여 본 발명의 실시예들에 따른 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법에 대하여 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나, 개략적인 구성을 이해하기 위하여 실제보다 축소하여 도시한 것이다. 또한, 제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 한편, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. A method for diagnosing thyroid eye disease using orbital computed tomography (CT) based on a neural network-based algorithm according to embodiments of the present invention will be described in detail with reference to the accompanying drawings. Since the present invention can have various changes and can have various forms, specific embodiments are illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents and substitutes included in the spirit and scope of the present invention. In describing each figure, like reference numerals have been used for like elements. In the accompanying drawings, the dimensions of the structures are enlarged than actual for clarity of the present invention, or reduced than actual in order to understand the schematic configuration. Also, terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. Meanwhile, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

도1은, 본 발명의 단계별 흐름도이다.1 is a step-by-step flowchart of the present invention.

도1을 참고하면, 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법은 갑상선안병증을 앓고 있는 환자의 CT영상 이미지를 수집하는 단계;와 상기 수집한 CT 영상의 각각에 대한 정보 처리 파이프라인을 만들어 상기 CT영상을 전처리하는 단계;와 상기 전처리한 CT영상을 기반으로 진단 상황을 상정하여 데이터를 구성하는 단계;와 상기 수집한 영상들의 조합 데이터 셋트를 만들어 인공신경망(NN: Neural Network)를 학습시키는 단계;와 상기 인공신경망(NN: Neural Network) 학습을 n번 반복하여, n개의 진단 정확도 값을 평균을 내어 상기 인공신경망(NN: Neural Network)의 최적 진단 성능을 내는 단계; 및 상기 최적의 진단 성능을 내는 인공신경망(NN: Neural Network)의 알고리즘 통해, 상기 CT 영상물로 갑상선 안병증을 진단하는 단계;를 포함한다.Referring to FIG. 1 , a method for diagnosing thyroid eye disease using orbital computed tomography (CT) based on a neural network-based algorithm includes collecting CT image images of a patient suffering from thyroid eye disease; and each of the collected CT images. preprocessing the CT image by creating an information processing pipeline for learning NN: Neural Network; and repeating NN: Neural Network learning n times, averaging n diagnostic accuracy values, to obtain optimal diagnostic performance of the artificial neural network (NN: Neural Network) paying off; and diagnosing thyroid ophthalmopathy using the CT image through an algorithm of a neural network (NN) that produces the optimal diagnostic performance.

도1은, 본 발명의 단계별 흐름도이다.1 is a step-by-step flowchart of the present invention.

도2와 도3은, 본 발명의 CT영상 전처리 흐름도이다.2 and 3 are flowcharts of CT image preprocessing according to the present invention.

도2와 도3을 참고하면, 상기 갑상선안병증 환자의 CT영상을 전처리하는 단계는 상기 수집한 갑상선안병증의 환자 CT영상 이미지 데이터셋을 기반으로, 상기 갑상선안병증 CT영상 이미지의 축상(Axial), 관상(Coronal), 시상(Sagittal) 부분의 영상정보데이터를 얻는 단계; 및 상기 CT영상 이미지의 축상(Axial), 관상(Coronal), 시상(Sagittal) 부분의 영상정보를 기반으로, 영상 정보 처리 파이프라인을 만들어 전처리하는 단계;를 포함한다. 따라서, 상기 CT영상을 전처리하는 단계는 상기 최초 입력된 축상(Axial), 관상(Coronal), 시상(Sagittal) CT 영상에 대해 보간법(Interpolation)을 활용하여 크기를 정규화하는 단계;와 상기 CT영상 이미지에서 안구와 관련된 부분을 추출하는 단계;와 상기 안구와 관련된 부분만 추출된 CT영상 이미지 이 외, 주변의 불필요한 검은 영역으로 표시되는 단계;와 상기 CT영상 이미지에서 검은 영역으로 표시한 영역을 삭제하는 단계;와 상기 안구 부분 이외 주변의 이미지가 삭제된 CT 영상에 대해 보간법(Interpolation)을 통해 이미지의 크기를 정규화하는 단계; 및 상기 Hounsfield unit 값을 통해, 지방과 근육을 제외한 나머지 부분을 제거한 뒤, 영상의 픽셀 값들을 0~1 사이로 정규화하는 단계;를 포함한다. 좀 더 상세하게는 순도GO 99건, 중간~심도GO 94건, 정상제어 95건 등 총 288건의 CT 영상세트를 수집한다. Axial, Coronal 및 Sagittal 평면에서 획득한 CT 영상은 CT 장비의 차이로 인한 변동을 극복하기 위해 스플라인 보간법을 사용하여 각 평면의 영상 수를 32개로 고정한다. 이 후, 수동으로 관심 영역(ROI)을 잘라내고 남은 흑마진을 제거한다. NN(Neural Network)에 대한 고정 크기 입력 요건을 충족하기 위해 CT 영상은 축상면과 시상면의 경우 128 × 128, 관상면의 경우 64 × 128로 확대축소한다. CT 영상은 Hounsfield unit(HU) 값으로 스케일링되었으며, 불필요한 픽셀을 제거하기 위해 지방과 UM을 각각 -110-10, 0-40 HU의 범위에서 선택한다. 17 마지막으로 0과 1 사이의 스케일링으로 모든 영상을 정규화한다.2 and 3, the pre-processing of the CT image of the thyroid eye disease patient is based on the collected CT image image dataset of the thyroid eye disease patient, ), obtaining image information data of coronal, sagittal parts; and pre-processing by creating an image information processing pipeline based on the image information of the axial, coronal, and sagittal portions of the CT image image. Therefore, the pre-processing of the CT image includes normalizing the size by using interpolation for the initially input axial, coronal, and sagittal CT images; and the CT image image. extracting a part related to the eye in the ; and displaying an unnecessary black area in the vicinity other than the CT image image from which only the part related to the eye is extracted; and deleting the area marked as a black area in the CT image image and normalizing the size of the image through interpolation with respect to the CT image from which images around the eyeball have been removed; and normalizing the pixel values of the image to between 0 and 1 after removing the remaining parts except for fat and muscle through the Hounsfield unit value. In more detail, a total of 288 CT image sets were collected, including 99 cases of purity GO, 94 cases of medium to deep GO, and 95 cases of normal control. For CT images acquired in the axial, coronal and sagittal planes, the number of images in each plane is fixed to 32 using spline interpolation to overcome the fluctuations due to differences in CT equipment. After that, the region of interest (ROI) is manually cut out and the remaining black margin is removed. To meet the fixed-size input requirements for neural networks (NNs), CT images are scaled down to 128 × 128 for axial and sagittal planes and 64 × 128 for coronal planes. The CT image was scaled with Hounsfield unit (HU) values, and fat and UM were selected in the range of -110-10 and 0-40 HU, respectively, to remove unnecessary pixels. 17 Finally, normalize all images by scaling between 0 and 1.

여기서, 상기 Hounsfield unit 값을 이용한 상기 CT영상 정규화 단계는 사람의 안구가 2개인 점에 착안하여 각 안구로부터 얻을 수 있는 수많은 정보를 기준 없이 하나의 정보로 포괄하여 처리하지 않고, Half Depthwise Convolution 구조를 추가하여 진단 성능의 한계를 향상시키는 단계를 포함한다. 또한, 상기 조합 데이터 셋트를 만드는 단계는 상기 전처리한 CT영상을 기반으로, 4가지 진단 상황을 상정하여 데이터를 구성하는 단계;와 상기 축(Axial), 중앙(Coronal), 수직(Sagittal) CT 영상을 통해 7조합의 데이터 셋트를 만들어 내는 단계;를 포함하며, 상기 CT영상 이미지의 축(Axial), 중앙(Coronal), 수직(Sagittal) 부분의 영상 정보 처리 파이브라인은 상기 영상 정보 처리 파이프라인을 별도로 둘 수 있도록 설계함으로써 학습에 필요한 계산량을 유동적으로 조절할 수 있는 단계;를 포함한다.Here, the CT image normalization step using the Hounsfield unit value is based on the fact that a person has two eyes, and does not cover and process a large number of information obtainable from each eye into a single piece of information without a standard, but a Half Depthwise Convolution structure. and further enhancing the limits of diagnostic performance. In addition, the step of creating the combined data set comprises the steps of constructing data based on the pre-processed CT image, assuming four diagnostic situations; and the axial, central, and sagittal CT images Creating a data set of 7 combinations through It includes a step of flexibly adjusting the amount of calculation required for learning by designing it to be placed separately.

또한, 상기 인공신경망(NN: Neural Network) 학습을 시키는 단계는 상기 각각의 CT영상 데이터의 80% 만큼의 CT 영상을 활용하여, 상기 인공신경망(NN: Neural Network)을 학습시키며, 나머지 20%의 상기 CT 영상들을 활용하여 진단 정확도(AUC)를 측정하는 단계;를 포함하며, 특별히 상기 인공신경망(NN: Neural Network)의 알고리즘은, 상기 갑상선 안병증의 여부를 진단하고, 상기 갑상선 안병증의 중증도롤 진단하는 계산식을 만들어 내는 단계;를 포함한다. 이 후, 상기 인공신경망(NN: Neural Network)의 학습을 n번 반복하여, 상기 n개의 진단 결과를 기반으로 하여 정확도 값을 도출하고, 상기 도출된 n개의 정확도 값의 평균을 내어 상기 인공신경망(NN: Neural Network)의 최적 진단 성능 사양(SPEC) 및 성능을 도출하는 단계;를 포함하며, 상기 갑상선 안병증 진단은 상기 반복된 학습을 거친 인공신경망(NN: Neural Network)의 알고리즘을 기반으로, 상기 CT 영상물로 갑상선 안병증을 진단하는 단계;를 포함한다. 이상에서 설명한 바와 같은 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법에 따르면 다음과 같은 효과가 나타낸다.그 효과는 CT 이미지를 통한 진단 정확도(AUC)는 유지하면서 갑상선안병증 진단에 요구되는 시간을 줄일 수 있으먀, 갑상선 안병증 환자 CT 영상 각각에 대한 정보 처리 파이프라인을 별도로 둘 수 있도록 설계함으로써 학습에 필요한 계산량을 유동적으로 조절할 수 있다. 또한, CT 이미지를 통해 갑상선안병증 환자의 중증도를 자동화된 판독과정을 통해 판단함으로써 진료과정에서 치료방법 선택 및 예후예측에 응용할 수 있으며, Half Depthwise Convolution 구조를 추가하여 일측성 혹은 비대칭적인 안구돌출(Exophthalmos)의 환자를 판단함으로써 진단 정확도(AUC)를 보장할 수 있다.In addition, the step of learning the neural network (NN) uses 80% of the CT images of each of the CT image data to learn the neural network (NN), and the remaining 20% measuring the diagnostic accuracy (AUC) by using the CT images; in particular, the algorithm of the artificial neural network (NN) diagnoses whether the thyroid ophthalmopathy is present, and the severity of the thyroid ophthalmopathy. Including; generating a formula for diagnosing the role. Thereafter, the learning of the neural network (NN) is repeated n times, an accuracy value is derived based on the n diagnosis results, and the average of the derived n accuracy values is obtained and the artificial neural network ( Including; deriving the optimal diagnostic performance specification (SPEC) and performance of NN: Neural Network, wherein the diagnosis of thyroid ophthalmopathy is based on an algorithm of an artificial neural network (NN: Neural Network) that has undergone the repeated learning, and diagnosing thyroid ophthalmopathy with the CT image. According to the method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT) based on neural network-based algorithm as described above, the following effects are shown. The time required for diagnosis can be reduced, but by designing a separate information processing pipeline for each CT image of a patient with thyroid eye disease, the amount of computation required for learning can be flexibly adjusted. In addition, by judging the severity of thyroid eye disease patients through an automated reading process through CT images, it can be applied to treatment method selection and prognosis prediction in the treatment process. Diagnosis accuracy (AUC) can be ensured by judging patients with exophthalmos.

도4는, 본 발명인 NN(Neural Network)에 입력할 CT 이미지 입력값에 따른 성능 결과값을 나타낸 표이며, 도5는, 본 발명으로 도출된 CT 결과와 전문임상 CT와의 진단 정확도(AUC)를 비교하기 위해 ROC 곡선을 나타낸 그래프이다.4 is a table showing the performance results according to the CT image input value to be input to the NN (Neural Network) of the present invention, and FIG. 5 is the diagnostic accuracy (AUC) between the CT result derived by the present invention and the specialized clinical CT It is a graph showing the ROC curve for comparison.

도4를 참고하면, (1) 중간에서 심각까지의 GO 대 보통 제어, (2) 가벼운 GO 대 보통 제어, (3) 중간에서 심각까지의 GO 대 보통 제어, 그리고 (4) 중간에서 심각까지의 GO 대 보통 제어. 다음으로, 각 실험 그룹은 분리된 데이터 집합으로 표현되었다. 성별과 연령에 따른 선택 편향의 영향을 완화하기 위해 참가자의 임상적 또는 인구통계학적 특성에 관계없이 무작위 분할로 홀드아웃 교차 검증을 사용했으며, 각 데이터 세트의 경우 80%가 NN(Neural Network)을 훈련하는 훈련 세트로, 나머지 20%는 훈련된 NN(Neural Network)을 평가하기 위한 테스트 세트로 사용한다. 제안된 NN(Neural Network)과 기존 NN(Neural Network)의 최종 성능은 30회의 반복 실험 결과를 평균하여 측정한다.Referring to Figure 4, (1) moderate to severe GO versus moderate control, (2) mild GO versus moderate control, (3) moderate to severe GO versus moderate control, and (4) moderate to severe GO vs. Normal Control. Next, each experimental group was represented as a separate data set. To mitigate the effects of gender and age-dependent selection bias, we used holdout cross-validation with randomized partitioning regardless of the clinical or demographic characteristics of the participants, and for each data set, 80% used a Neural Network (NN). As a training set to train, the remaining 20% is used as a test set to evaluate the trained Neural Network (NN). The final performance of the proposed Neural Network (NN) and the existing Neural Network (NN) is measured by averaging the results of 30 replicates.

제안된 NN(Neural Network)은 축(128 × 128 × 32), 시상(128 × 128 × 32), 관상 영상(64 × 128 × 32)을 취하는 32비트 단일정밀 부동소자로 구성된 3개의 입력층으로 구성되며, 최종 완전 연결층 이전에 독립적으로 처리된다. 제안된 NN(Neural Network)에서 첫째, 최대 3개의 서로 다른 평면의 입력 CT 영상에 기반한 경련 및 심층 경련 층에서 형상을 추출한다. 최대 풀링 레이어는 각 콘볼루션 작동을 따른다. 첫 번째 단계 이후 축상 영상과 관상 영상의 크기는 각각 32 × 32 × 16과 16 × 32 × 16으로 축소된다. 다음으로 피쳐 맵을 각 이미지의 왼쪽과 오른쪽 궤도에서 별도로 추출하여 궤도를 비교하고, 비대칭이나 일방적인 GO를 검출한다. 이를 위해 필터 크기가 이미지 크기의 절반으로 설정된 깊이-와이드 콘볼루션을 사용한다. 각 경련 필터는 분리된 왼쪽 또는 오른쪽 궤도 영상에서 실제 값을 추출한다. 구체적으로, 16개의 콘볼루션 필터를 각 궤도에 사용하여 후속 16 × 2 노드에 대한 입력 값을 산출한다. 셋째, 16 × 2 노드의 각 그룹은 32 × 1 노드로 평탄화되며, 이는 후속 4 × 1 노드에 완전히 연결된다. 마지막으로 4 × 1 노드의 출력 값이 출력 레이어로 전달된다. 출력 계층에는 데이터 집합이 가벼운 GO 환자 대 정상 제어와 같은 두 가지 클래스로 구성되는 경우 유의성 값을 계산하기 위한 하나의 S자형 노드를 포함한다.The proposed NN (Neural Network) consists of three input layers consisting of 32-bit single-precision floating devices that take axial (128 × 128 × 32), sagittal (128 × 128 × 32), and coronal images (64 × 128 × 32). constructed and processed independently before the final fully connected layer. In the proposed Neural Network (NN), first, shapes are extracted from the convulsive and deep convulsive layers based on input CT images of up to three different planes. The max pooling layer follows each convolution operation. After the first step, the dimensions of the axial and coronal images are reduced to 32 × 32 × 16 and 16 × 32 × 16, respectively. Next, feature maps are extracted from the left and right trajectories of each image separately to compare the trajectories, and asymmetric or unilateral GOs are detected. To do this, we use a depth-wide convolution with the filter size set to half the image size. Each spasm filter extracts the actual value from a separate left or right orbital image. Specifically, 16 convolutional filters are used for each trajectory, yielding input values for subsequent 16 × 2 nodes. Third, each group of 16 × 2 nodes is flattened to 32 × 1 nodes, which are fully connected to subsequent 4 × 1 nodes. Finally, the output value of the 4 × 1 node is passed to the output layer. The output layer contains one sigmoidal node for calculating significance values if the data set consists of two classes: mild GO patients versus normal controls.

도5를 참고하면, 도5는 제안하는 NN(Neural Network)과 전문임상의와의 진단 정확도(AUC)를 비교하기 위해 ROC 커브를 그려둔 것입니다. 푸른색이 제안하는 NN(Neural Network)의 진단 정확도를 나타내고 붉은색이 전문임상의의 진단 정확도를 나타냅니다. 4가지 비교 실험에서 모두 제안하는 NN(Neural Network)의 진단 정확도가 모두 더 높은 것을 확인할 수 있다.Referring to Figure 5, Figure 5 shows the ROC curve to compare the proposed NN (Neural Network) and the diagnostic accuracy (AUC) with a professional clinician. The blue color represents the suggested NN (Neural Network) diagnostic accuracy, and the red color represents the diagnostic accuracy of professional clinicians. It can be seen that the diagnostic accuracy of NN (Neural Network) proposed in all four comparative experiments is higher.

비교를 위해 제안된 NN(Neural Network)과 기존 NN(Neural Network)과 같이 임상 정보 없이 3개 실험군을 비교하는 4개의 독립적 실험을 수행했으며, 최종 등급은 다수결로 결정되었으며, 수신기 작동 특성(ROC) 곡선 아래 면적 면적의 진단 성과를 제안된 NN(Neural Network)과 비교한다. 갑상선 안병증(GO)진단에 특화된 참신한 경련형 NN(Neural Network)을 개발했는데 정상 대조군과 비교해서 중간에서 심각까지의 GO환자를 진단한 AUC가 0.979로 가장 높은 것으로 나타났고, 중간에서 중증의 GO환자와 가벼운 GO환자를 차별한 경우는 0.941로 나타났다. 또한 제안된 NN(Neural Network)은 GugLeNet, ResNet-50, VGG-16과 같은 기존 NN(Neural Network)보다 훨씬 높은 성능을 나타낸다. 본 발명의 인공신경망(NN: Neural Network)은 3개의 입력 채널이 있는 3개의 콘볼루션 계층을 포함하고, 그 다음에 이항 분류를 위한 하나의 완전히 연결된 계층과 다중 분류를 위한 소프트맥스 계층을 위한 최종 sigmoid 분류 계층을 포함한다. 각 환자에 대해 서로 다른 평면을 가진 100개 이상의 CT 영상을 분석해야 한다는 점을 고려하면, 다중 입력 채널의 구성은 모든 관련 기능을 손실 없이 사용할 수 있다. 또한 제안된 NN(Neural Network)은 각 평면의 CT 영상에 대한 정보 처리 파이프라인을 포함시켜 진단 성능을 향상시킬 수 있다. For comparison, four independent experiments were performed comparing three experimental groups without clinical information, such as the proposed Neural Network (NN) and the conventional Neural Network (NN), and the final grade was determined by a majority vote, and the receiver operating characteristics (ROC) Compare the diagnostic performance of the area under the curve with the proposed Neural Network (NN). We developed a novel convulsive neural network (NN) specialized in diagnosing thyroid ophthalmopathy (GO). Compared with the normal control group, the AUC for diagnosing moderate to severe GO patients was 0.979, which was the highest, with moderate to severe GO The case of discriminating between patients and mild GO patients was found to be 0.941. In addition, the proposed Neural Network (NN) shows much higher performance than the existing Neural Networks (NNs) such as GugLeNet, ResNet-50, and VGG-16. The neural network (NN) of the present invention includes three convolutional layers with three input channels, followed by one fully connected layer for binomial classification and a final softmax layer for multiple classification. Contains the sigmoid classification hierarchy. Considering that more than 100 CT images with different planes need to be analyzed for each patient, the configuration of multiple input channels allows all relevant functions to be used without loss. In addition, the proposed Neural Network (NN) can improve diagnostic performance by including an information processing pipeline for CT images of each plane.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술 분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. In the detailed description of the present invention described above, although it has been described with reference to preferred embodiments of the present invention, those skilled in the art or those having ordinary knowledge in the technical field will And it will be understood that various modifications and variations of the present invention can be made without departing from the technical scope.

Claims (10)

갑상선안병증을 앓고 있는 환자의 CT영상 이미지를 수집하는 단계;
상기 수집한 CT 영상의 각각에 대한 정보 처리 파이프라인을 만들어 상기 CT영상을 전처리하는 단계;
상기 전처리한 CT영상을 기반으로 진단 상황을 상정하여 데이터를 구성하는 단계;
상기 수집한 영상들의 조합 데이터 셋트를 만들어 인공신경망(NN: Neural Network)를 학습시키는 단계;
상기 인공신경망(NN: Neural Network) 학습을 n번 반복하여, n개의 진단 정확도 값을 평균을 내어 상기 인공신경망(NN: Neural Network)의 최적 진단 성능을 내는 단계;
상기 최적의 진단 성능을 내는 인공신경망(NN: Neural Network)의 알고리즘 통해, 상기 CT 영상물로 갑상선안병증을 진단하는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
Collecting a CT image image of a patient suffering from thyroid ophthalmopathy;
pre-processing the CT image by creating an information processing pipeline for each of the collected CT images;
constructing data assuming a diagnosis situation based on the pre-processed CT image;
training an artificial neural network (NN) by creating a combined data set of the collected images;
repeating the neural network (NN) learning n times, averaging n diagnostic accuracy values, to obtain optimal diagnostic performance of the neural network (NN);
Orbital computed tomography (CT) based on a neural network-based algorithm, comprising: diagnosing thyroid ophthalmopathy with the CT image through an algorithm of an artificial neural network (NN) that produces the optimal diagnostic performance A method for diagnosing thyroid ophthalmopathy using
제1항에 있어서,
상기 갑상선안병증 환자의 CT영상을 전처리하는 단계는,
상기 수집한 갑상선안병증의 환자 CT영상 이미지 데이터셋을 기반으로,
상기 갑상선안병증 CT영상 이미지의 축상(Axial), 관상(Coronal), 시상(Sagittal) 부분의 영상정보데이터를 얻는 단계;
상기 CT영상 이미지의 축상(Axial), 관상(Coronal), 시상(Sagittal) 부분의 영상정보를 기반으로, 영상 정보 처리 파이프라인을 만들어 전처리하는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
According to claim 1,
The step of pre-processing the CT image of the thyroid eye disease patient,
Based on the collected CT image image dataset of patients with thyroid ophthalmopathy,
obtaining image information data of axial, coronal, and sagittal portions of the thyroid eye disease CT image image;
Based on the image information of the axial, coronal, and sagittal parts of the CT image image, pre-processing by creating an image information processing pipeline; A method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT).
제2항에 있어서,
상기 CT영상을 전처리하는 단계는,
상기 최초 입력된 축상(Axial), 관상(Coronal), 시상(Sagittal) CT 영상에 대해 보간법(Interpolation)을 활용하여 크기를 정규화하는 단계;
상기 CT영상 이미지에서 안구와 관련된 부분을 추출하는 단계;
상기 안구와 관련된 부분만 추출된 CT영상 이미지 이 외, 주변의 불필요한 검은 영역으로 표시되는 단계;
상기 CT영상 이미지에서 불필요한 검은 영역을 삭제하는 단계;
상기 안구 부분 이외 주변의 이미지가 삭제된 CT 영상에 대해 보간법(Interpolation)을 통해 이미지의 크기를 정규화하는 단계;
Housefield Unit 값을 통해, 지방과 근육을 제외한 나머지 부분을 제거한 뒤, 영상의 픽셀 값들을 0~1 사이로 정규화하는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
3. The method of claim 2,
The pre-processing of the CT image comprises:
normalizing the size of the initially input axial, coronal, and sagittal CT images by using interpolation;
extracting an eye-related part from the CT image;
displaying an unnecessary black area in the vicinity other than the CT image image from which only the part related to the eye is extracted;
deleting unnecessary black areas from the CT image;
normalizing the size of the image through interpolation with respect to the CT image from which images around the eyeball have been deleted;
Orbital computed tomography (CT) based on a neural network-based algorithm comprising: removing the remaining parts except fat and muscle through the Housefield Unit value, and then normalizing the pixel values of the image to between 0 and 1 A method for diagnosing thyroid ophthalmopathy.
제3항에 있어서,
상기 Hounsfield unit 값을 이용한 상기 CT영상 정규화 단계는,
사람의 안구가 2개인 점에 착안하여 각 안구로부터 얻을 수 있는 수많은 정보를 기준 없이 하나의 정보로 포괄하여 처리하지 않고, Half Depthwise Convolution 구조를 추가하여 진단 성능의 한계를 향상시키는 단계를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전사화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
4. The method of claim 3,
The CT image normalization step using the Hounsfield unit value,
Focusing on the fact that a person has two eyes, it does not encompass and process a large number of information obtainable from each eye into one information without a standard, but includes the step of improving the limit of diagnostic performance by adding a Half Depthwise Convolution structure A method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT) based on a neural network-based algorithm.
제1항에 있어서,
상기 조합 데이터 셋트를 만드는 단계는,
상기 전처리한 CT영상을 기반으로, 4가지 진단 상황을 상정하여 데이터를 구성하는 단계;
상기 축(Axial), 중앙(Coronal), 수직(Sagittal) CT 영상을 통해 7조합의 데이터 셋트를 만들어 내는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
According to claim 1,
The step of creating the combination data set is,
constructing data based on the pre-processed CT image, assuming four diagnostic situations;
Using orbital computed tomography (CT) based on a neural network-based algorithm comprising a; How to diagnose thyroid eye disease.
제2항에 있어서,
상기 CT영상 이미지의 축(Axial), 중앙(Coronal), 수직(Sagittal) 부분의 영상정보 처리 파이브라인은,
상기 영상 정보 처리 파이프라인을 별도로 둘 수 있도록 설계함으로써 학습에 필요한 계산량을 유동적으로 조절할 수 있는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
3. The method of claim 2,
The image information processing five lines of the axial, coronal, and sagittal parts of the CT image image,
Diagnosis of thyroid ophthalmopathy using orbital computed tomography (CT) based on a neural network-based algorithm, characterized in that it comprises; Way.
제1항에 있어서,
상기 인공신경망(NN: Neural Network) 학습을 시키는 단계는,
상기 각각의 CT영상 데이터의 80% 만큼의 CT 영상을 활용하여, 상기 인공신경망(NN: Neural Network)을 학습시키며,
나머지 20%의 상기 CT 영상들을 활용하여 진단 정확도(AUC)를 측정하는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
According to claim 1,
The step of learning the artificial neural network (NN) is,
By using 80% of the CT images of each CT image data, the artificial neural network (NN) is learned,
Measuring diagnostic accuracy (AUC) using the remaining 20% of the CT images. A method for diagnosing thyroid ophthalmopathy using orbital computed tomography (CT) based on a neural network-based algorithm, comprising:
제7항에 있어서,
상기 인공신경망(NN: Neural Network)의 알고리즘은,
상기 갑상선안병증의 여부를 진단하고,
상기 갑상선안병증의 중증도를 진단하는 계산식을 만들어 내는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
8. The method of claim 7,
The algorithm of the artificial neural network (NN) is,
Diagnosing the presence of the thyroid eye disease,
Generating a calculation formula for diagnosing the severity of the thyroid eye disease. A method for diagnosing thyroid eye disease using orbital computed tomography (CT) based on a neural network-based algorithm, comprising: a.
제8항에 있어서,
상기 인공신경망(NN: Neural Network)의 학습을 n번 반복하여,
상기 n개의 진단 결과를 기반으로 하여 정확도 값을 도출하고,
상기 도출된 n개의 정확도 값의 평균을 내어 상기 인공신경망(NN: Neural Network)의 최적 진단 성능 사양(SPEC) 및 성능을 도출하는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
9. The method of claim 8,
By repeating the learning of the artificial neural network (NN) n times,
An accuracy value is derived based on the n diagnostic results,
Orbital computed tomography based on a neural network-based algorithm, comprising: averaging the derived n accuracy values to derive an optimal diagnostic performance specification (SPEC) and performance of the neural network (NN) A method for diagnosing thyroid ophthalmopathy using radiography (CT).
제1항에 있어서,
상기 갑상선안병증 진단은,
상기 반복된 학습을 거친 인공신경망(NN: Neural Network)의 알고리즘을 기반으로, 상기 CT 영상물로 갑상선 안병증을 진단하는 단계;를 포함하는 것을 특징으로 하는 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(CT)을 이용한 갑상선안병증 진단 방법.
According to claim 1,
The diagnosis of thyroid ophthalmopathy is
Orbital computed tomography (CT) based on a neural network-based algorithm, comprising: diagnosing thyroid ophthalmopathy with the CT image based on an algorithm of an artificial neural network (NN) that has undergone the repeated learning ) to diagnose thyroid ophthalmopathy.
KR1020200136193A 2020-10-20 2020-10-20 Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm KR102537470B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200136193A KR102537470B1 (en) 2020-10-20 2020-10-20 Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200136193A KR102537470B1 (en) 2020-10-20 2020-10-20 Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm

Publications (2)

Publication Number Publication Date
KR20220052166A true KR20220052166A (en) 2022-04-27
KR102537470B1 KR102537470B1 (en) 2023-05-26

Family

ID=81391053

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200136193A KR102537470B1 (en) 2020-10-20 2020-10-20 Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm

Country Status (1)

Country Link
KR (1) KR102537470B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115969400A (en) * 2023-01-13 2023-04-18 深圳市眼科医院(深圳市眼病防治研究所) Apparatus for measuring area of eyeball protrusion
KR102564437B1 (en) * 2022-10-12 2023-08-10 주식회사 지오비전 Facial bone fracture detection system using deep learning model

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180052959A (en) * 2016-11-11 2018-05-21 한국과학기술정보연구원 Method and Apparatus for Predicting a Binding Affinity between MHC and Peptide
CN109543728A (en) * 2018-11-07 2019-03-29 湖北工业大学 A kind of Thyroid-related Ophthalmopathy detection method based on transfer learning
KR20200113336A (en) * 2019-03-25 2020-10-07 세종대학교산학협력단 Learning method for generating multiphase collateral image and multiphase collateral imaging method using machine learning

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180052959A (en) * 2016-11-11 2018-05-21 한국과학기술정보연구원 Method and Apparatus for Predicting a Binding Affinity between MHC and Peptide
CN109543728A (en) * 2018-11-07 2019-03-29 湖北工业大学 A kind of Thyroid-related Ophthalmopathy detection method based on transfer learning
KR20200113336A (en) * 2019-03-25 2020-10-07 세종대학교산학협력단 Learning method for generating multiphase collateral image and multiphase collateral imaging method using machine learning

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
꾸준희. [Deep Learning] 딥러닝에서 사용되는 다양한 Convolution 기법들. 티스토리 블로그, [online], 2020년 5월 18일, [2022년 4월 15일 검색], 인터넷: <URL: https://eehoeskrap.tistory.com/431>* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102564437B1 (en) * 2022-10-12 2023-08-10 주식회사 지오비전 Facial bone fracture detection system using deep learning model
WO2024080426A1 (en) * 2022-10-12 2024-04-18 주식회사 지오비전 Facial bone fracture detection system using deep learning model
CN115969400A (en) * 2023-01-13 2023-04-18 深圳市眼科医院(深圳市眼病防治研究所) Apparatus for measuring area of eyeball protrusion

Also Published As

Publication number Publication date
KR102537470B1 (en) 2023-05-26

Similar Documents

Publication Publication Date Title
Carass et al. Longitudinal multiple sclerosis lesion segmentation: resource and challenge
EP3659067B1 (en) Method of modifying a retina fundus image for a deep learning model
Gao et al. Automatic feature learning to grade nuclear cataracts based on deep learning
Sandhu et al. Automated diagnosis and grading of diabetic retinopathy using optical coherence tomography
Suganyadevi et al. Diabetic retinopathy detection using deep learning methods
Qureshi et al. Detection of glaucoma based on cup-to-disc ratio using fundus images
KR102537470B1 (en) Diagnosis method for Graves’orbitopathy using orbital computed tomography (CT) based on neural network-based algorithm
Jordan et al. A review of feature-based retinal image analysis
Khandouzi et al. Retinal vessel segmentation, a review of classic and deep methods
Tsamis et al. An automated method for assessing topographical structure–function agreement in abnormal glaucomatous regions
Chea et al. Classification of Fundus Images Based on Deep Learning for Detecting Eye Diseases.
Hassan et al. Deep learning based automated extraction of intra-retinal layers for analyzing retinal abnormalities
Bai et al. Cystoid macular edema segmentation of Optical Coherence Tomography images using fully convolutional neural networks and fully connected CRFs
Fu et al. A retrospective comparison of deep learning to manual annotations for optic disc and optic cup segmentation in fundus photographs
Phridviraj et al. A bi-directional Long Short-Term Memory-based Diabetic Retinopathy detection model using retinal fundus images
Brancati et al. Automatic segmentation of pigment deposits in retinal fundus images of Retinitis Pigmentosa
Samagaio et al. Automatic segmentation of diffuse retinal thickening edemas using Optical Coherence Tomography images
Morales et al. Computer-aided diagnosis software for hypertensive risk determination through fundus image processing
CN111291706B (en) Retina image optic disc positioning method
Gandhimathi et al. Detection of neovascularization in proliferative diabetic retinopathy fundus images.
Shon et al. Development of a β-variational autoencoder for disentangled latent space representation of anterior segment optical coherence tomography images
Hussein et al. Convolutional Neural Network in Classifying Three Stages of Age-Related Macula Degeneration
Hsu et al. A comprehensive study of age-related macular degeneration detection
Ameri et al. Segmentation of Hard Exudates in Retina Fundus Images Using BCDU-Net
Amini et al. Diabetic retinopathy detection in ocular imaging by dictionary learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant