WO2022034956A1 - 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법 - Google Patents

랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법 Download PDF

Info

Publication number
WO2022034956A1
WO2022034956A1 PCT/KR2020/011728 KR2020011728W WO2022034956A1 WO 2022034956 A1 WO2022034956 A1 WO 2022034956A1 KR 2020011728 W KR2020011728 W KR 2020011728W WO 2022034956 A1 WO2022034956 A1 WO 2022034956A1
Authority
WO
WIPO (PCT)
Prior art keywords
cataract
interest
slit lamp
region
image
Prior art date
Application number
PCT/KR2020/011728
Other languages
English (en)
French (fr)
Inventor
김대한
김대원
조경진
Original Assignee
단국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 단국대학교 산학협력단 filed Critical 단국대학교 산학협력단
Publication of WO2022034956A1 publication Critical patent/WO2022034956A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/117Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the anterior chamber or the anterior chamber angle, e.g. gonioscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/13Ophthalmic microscopes
    • A61B3/135Slit-lamp microscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment

Definitions

  • the present invention relates to an apparatus and method for diagnosing a cataract grade based on a random forest algorithm, and more particularly, extracting 7 features from a lens region and inputting the extracted features into a random forest algorithm to diagnose a cataract grade It relates to a cataract grade diagnostic device and method therefor.
  • Cataract refers to a disease in which the lens, which is a part of the eye tissue, becomes cloudy and does not allow light to pass through properly, causing the vision to appear cloudy.
  • a typical symptom of a cataract is a decrease in visual acuity, which manifests different symptoms depending on the location and degree of opacity of the lens.
  • Cataract is determined by observing the degree of opacity of the lens through a slit lamp microscope in a state in which the pupil is dilated. Then, the cataract is graded by the Lens Opacities Classification System (LOCS) 3 to determine the degree of opacification that has occurred at each location.
  • LOCS Lens Opacities Classification System
  • nuclear opacity is classified into six stages, cortical opacity is classified into five stages, and subcapsular opacity is classified into five stages.
  • cataract is diagnosed by ophthalmic evaluation, and the subjective interpretation of the examiner may be involved.
  • An object of the present invention is to provide an apparatus and method for diagnosing a cataract grade for diagnosing a cataract grade by extracting seven features from a lens region and inputting the extracted features into a random forest algorithm.
  • an image input unit for receiving an image of a slit lamp of a subject to be diagnosed with a condition, a flood fill on the input slit lamp image
  • a feature extractor that extracts a region of interest by applying a (flood fill) algorithm, extracts a plurality of feature values from pixels included in the extracted region of interest, and inputs the extracted feature values to a pre-trained random forest classifier
  • it includes a severity classification unit that classifies the severity of the cataract.
  • the feature value may include at least one of an average value, a variance value, an entropy, a standard deviation value, an R channel average value, a G channel average value, and a B channel average value of pixels included in the ROI.
  • the feature extractor may apply a flood fill algorithm to the slit lamp image to classify the object corresponding to the lens and the background, and extract the classified object as a region of interest.
  • It may further include a learning unit for extracting a region of interest from slit lamp images of cataract patients, and learning the random forest classifier using a feature value obtained from the extracted region of interest and a pre-diagnosed cataract grade.
  • the learning unit divides a region of interest from the collected slit lamp images, classifies the extracted feature values using pixels included in the divided region of interest into a plurality of grades by a lens opacity classification system (LOCS), and groups them. , it is possible to learn to calculate a result value by inputting a data set generated by random extraction from each group into a plurality of pre-built decision trees.
  • LOCS lens opacity classification system
  • the learning unit may increase the image by applying image augmentation to the slit lamp image.
  • the severity classification unit may classify the result values calculated from the plurality of decision trees into Normal, Mild, and Sverer grades according to the principle of majority vote.
  • a cataract classification method using a cataract classification apparatus receiving an image of a slit lamp of a subject to be diagnosed with a condition, a flood fill algorithm for the input slit lamp image Applying to extract a region of interest, extracting a plurality of feature values from pixels included in the extracted region of interest, and inputting the extracted feature values into a pre-learned random forest classifier to classify the severity of cataract classifying the
  • an appropriate classification result can be derived by learning and testing a classifier using seven characteristics that can determine whether or not a cataract exists using the lens image obtained through the slit lamp examination. Therefore, according to the present invention, it is possible to prevent the intervention of a medical staff or examiner's subjective interpretation, to make a specific diagnosis using objective data and indicators, and to increase the efficiency of work in the medical image analysis field.
  • FIG. 1 is a configuration diagram illustrating an apparatus for diagnosing a cataract grade according to an embodiment of the present invention.
  • FIG. 2 is a flowchart illustrating a cataract classification method according to an embodiment of the present invention.
  • FIG. 3 is a flowchart for explaining step S220 shown in FIG. 2 .
  • FIG. 5 is a diagram illustrating a region of interest extracted in step S222 shown in FIG. 3 .
  • FIG. 6 is a flowchart for explaining step S230 shown in FIG. 2 .
  • FIG. 1 a cataract classification apparatus according to an embodiment of the present invention will be described in more detail with reference to FIG. 1 .
  • FIG. 1 is a configuration diagram for explaining a cataract classification apparatus according to an embodiment of the present invention.
  • the cataract grade classification apparatus 100 includes an image input unit 110 , a feature extraction unit 120 , a learning unit 130 , and a severity classification unit 140 . do.
  • the image input unit 110 receives a slit lamp image obtained by photographing the lens through a slit lamp examination.
  • the feature extraction unit 120 extracts a region of interest by applying a flood fill algorithm to the slit lamp image, and extracts a feature value using pixels included in the extracted region of interest.
  • the feature value includes at least one of an average value of pixels, a variance value, an entropy, a standard deviation value, an average value of the R channel, an average value of the G channel, and an average value of the B channel.
  • the learning unit 130 learns a plurality of decision trees by using the feature values extracted from the slit lamp image for which the diagnosis of cataract has been completed and the pre-diagnosed cataract grade.
  • the severity classification unit 140 classifies the cataract patient into one of Normal, Mild, and Sverer according to the principle of majority vote by using the result values respectively calculated from the plurality of decision trees.
  • FIGS. 2 to 6 a cataract classification method according to an embodiment of the present invention will be described in detail with reference to FIGS. 2 to 6 .
  • FIG. 2 is a flowchart illustrating a cataract classification method according to an embodiment of the present invention.
  • the cataract grade classification method includes learning a decision tree and a test step of classifying the cataract grade into three grades using the learned decision tree. As shown in FIG. 2 , the learning step includes steps S210 to S230, and the test step includes steps S240 to S270.
  • the image collection unit 110 receives a slit lamp image of a patient diagnosed with cataract ( S210 ).
  • the slit lamp image is an image taken through the slit lamp examination, and indicates the state of the lens observed by shining a long, thin light.
  • the slit lamp image received through the image collection unit 110 represents the lens of a cataract patient whose classification has been completed by a Lens Opacities Classification System (LOCS).
  • LOCS Lens Opacities Classification System
  • the image collection unit receives a slit lamp image of a patient diagnosed with karyotype cataract.
  • the feature extraction unit 120 extracts seven feature values from the received slit lamp image (S220).
  • step S220 will be described in more detail with reference to FIGS. 3 to 5 .
  • FIG. 3 is a flowchart for explaining step S220 shown in FIG. 2
  • FIG. 4 shows a slit lamp image
  • FIG. 5 is a view showing the region of interest extracted in step S222 shown in FIG. 3 .
  • the feature extraction unit 120 performs a flood fill algorithm on the received slit lamp image ( S221 ).
  • the slit lamp is an examination method that magnifies and observes the cross section of the lens traversed by the light with a microscope by shining a long, thin light into the eye. Therefore, as shown in FIG. 4 , the light irradiated into the lens may be displayed in the slit lamp image.
  • the feature extraction unit 120 performs a flood fill algorithm to fill the portion where light is displayed in the lens.
  • the feature extraction unit 120 performs a pre-processing process to remove noise included in the slit lamp image.
  • the feature extraction unit 120 sets any one pixel among a plurality of pixels constituting the pre-processed slit lamp image as a reference point.
  • the feature extraction unit 120 expands the area connected in 4 or 8 directions around the set reference point, and fills the illuminated portion inside the lens by replacing it with a color similar to the color of the lens.
  • step S221 the feature extraction unit 120 extracts a region of interest from the slit lamp image using a threshold value (S222).
  • the feature extraction unit 120 extracts an ROI by using a threshold value of brightness.
  • the feature extraction unit 120 extracts the brightest region and the darkest region using RGB values of pixels constituting the slit lamp image.
  • the brightest area represents the area reflected by the illumination
  • the darkest area represents the background part.
  • the feature extraction unit 120 sets and extracts the remaining regions excluding the extracted brightest region and the darkest region, that is, the lens region, as the region of interest.
  • the feature extraction unit 120 extracts a feature value included in the extracted ROI (S223).
  • the feature value includes at least one of an average value, a variance value, an entropy, a standard deviation value, an average value of the R channel, an average value of the G channel, and an average value of the B channel of pixels included in the ROI.
  • step S220 the learning unit 130 generates each dataset by using the extracted feature value and the pre-diagnosed cataract grade, and the learning unit 130 uses the generated dataset as a plurality of decision trees. It is learned to input the result value to be calculated (S230).
  • step S230 will be described in more detail with reference to FIG. 6 .
  • FIG. 6 is a flowchart for explaining step S230 shown in FIG. 2 .
  • the learning unit 130 classifies the feature values extracted from the ROI into a plurality of grades by the lens opacity classification system (LOCS) and groups them (S231).
  • LOCS lens opacity classification system
  • karyotype cataracts are classified into six classes according to the classification method of the Lens Opacity Classification System (LOCS). Therefore, the learner 130 classifies the feature values extracted from the ROI into six classes and groups them. Then, the learning unit 130 determines whether the number of images classified into a plurality of groups is distributed in a balanced manner.
  • LOCS Lens Opacity Classification System
  • the learning unit 130 increases the image by applying image augmentation to the slit lamp image (S232).
  • the learning unit 130 extracts a group having insufficient data from among the plurality of groups. Then, the learning unit 130 performs image transformation by using the extracted ROI of the group.
  • the image transformation method is performed using any one of Resize, Scale, Flip, Translate, Rotate, and noise.
  • step S232 the learning unit 130 randomly extracts data from each classified group to generate a data set for learning and a data set for testing at a ratio of 7:3 (S233).
  • the learning unit 130 generates a dataset while changing the number and type of feature values selected from a plurality of feature values.
  • the learning unit 130 learns a plurality of decision trees using the generated data set for learning and the data set for testing (S234).
  • the learning unit 130 inputs a dataset for learning into the decision tree and supervises learning to reclassify six cataract grades into three grades. If the value is GD1 grade, the learning unit 130 trains the decision tree to classify the decision tree as a normal grade instead of a GD1 grade.
  • the learning unit 130 learns to classify the decision tree as Mild grade rather than GD2 grade or GD3 grade.
  • the learning unit 130 learns to classify the decision tree into Svere rather than GD4 to GD6.
  • the Normal grade is a grade indicating a normal condition
  • a Mild grade is a grade indicating a condition that is judged to be cataract but not urgently treated
  • the Svere grade is a grade indicating a serious stage and urgent treatment.
  • the learning unit 130 After the supervised learning is completed, the learning unit 130 inputs a data set for the test and tests whether the decision tree properly produces a result value.
  • step S230 the image input unit 110 receives a slit lamp image of a subject who is to be diagnosed with a condition (S240).
  • the image input unit 110 receives a slit lamp image photographed from a slit lamp microscope.
  • the feature extraction unit 120 extracts a region of interest from the received slit lamp image, and extracts a feature value included in the extracted region of interest (S250).
  • the feature extraction unit 120 applies a flood fill algorithm to the received slit lamp image to fill the region displaying the light contained in the lens. Then, the feature extraction unit 120 extracts a region of interest by applying a threshold value to the slit lamp image, and extracts a feature value from the extracted region of interest.
  • the feature value includes at least one of an average value, a variance value, an entropy, a standard deviation value, an R channel average value, a G channel average value, and a B channel average value of pixels included in the ROI.
  • the severity classifier 150 inputs the extracted feature value to the random forest classifier. Then, the random forest classifier analyzes the input feature value and calculates a result value (S260).
  • the severity classification unit 150 inputs the feature values extracted from the slit lamp image of the subject into a plurality of decision trees, respectively, and collects respective result values classified from the plurality of decision trees. Next, the severity classification unit 150 determines a final classification value from the collected result values. At this time, the severity classification unit 150 determines the final classification value according to the majority vote logic, but determines the final classification value using one selected from the simple voting method or the weighted voting method.
  • an appropriate classification result can be derived by learning and testing a classifier using seven characteristics that can determine whether or not a cataract exists using the lens image obtained through the slit lamp examination. Therefore, according to the present invention, it is possible to prevent the intervention of a medical staff or examiner's subjective interpretation, to make a specific diagnosis using objective data and indicators, and to increase the efficiency of work in the medical image analysis field.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Primary Health Care (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 발명은 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법에 대한 것이다. 본 발명에 따르면, 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 분류 장치에 있어서, 병증을 진단받고자 하는 피검자의 세극등 이미지를 입력받는 이미지 입력부, 상기 입력된 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 관심 영역을 추출하고, 추출된 관심 영역 내에 포함된 픽셀들로부터 복수의 특징값을 추출하는 특징 추출부, 그리고 상기 추출된 특징값을 기 학습된 랜덤 포레스트 분류기에 입력하여 백내장의 중증도에 대한 등급을 분류하는 중증도 분류부를 포함한다. 이와 같이 본 발명에 따르면, 세극등 검사를 통해 획득한 수정체 이미지를 이용하여 백내장 여부를 판단할 수 있는 7가지의 특징을 이용하여 분류기를 학습시키고 테스트 함으로서 적절한 분류 결과를 도출할 수 있다. 따라서, 본 발명에 따르면, 의료진이나 검사자의 주관적 해석 개입을 방지하고 객관적 자료와 지표를 이용하여 구체적으로 진단할 수 있으며 의료영상 분석 분야 업무의 효율성을 높일 수 있다.

Description

랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법
본 발명은 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 수정체 영역으로부터 7가지의 특징을 추출하고, 추출된 특징을 랜덤 포레스트 알고리즘에 입력하여 백내장 등급을 진단하는 백내장 등급 진단 장치 및 그 방법에 관한 것이다.
백내장은 안구 조직의 일부인 수정체가 혼탁해져 빛을 제대로 통과시키지 못하게 되면서 안개가 낀 것처럼 시야가 뿌옇게 보이게 되는 질환을 나타낸다.
최근 경제적인 발전과 서구화, 의학의 발전에 의해 평균 수명이 길어짐에 따라 백내장의 발생이 증가하고 있다. 백내장의 대표적인 증상은 시력을 저하시키는 것으로, 수정체의 혼탁 위치와 정도에 따라 각각 상이한 증상을 발현시킨다.
백내장은 동공을 확장시킨 상태에서 세극등 현미경을 통해 수정체의 혼탁 정도를 관찰하며, 위치에 따라 피질형, 핵형, 후낭하형으로 나뉘어서 판단한다. 그 다음, 백내장은 각각의 위치에 발생된 혼탁이 어느 정도인지 LOCS(Lens Opacities Classification System) 3에 의해 등급화된다.
LOCS 3에 의하면, 핵의 혼탁은 6단계로 분류되고, 피질의 혼탁은 5단계로 분류되며, 후낭하 혼탁은 5단계로 분류된다.
일반적으로 백내장은 안과적 평가에 의해 진단되는 것으로 검사자의 주관적인 해석이 개입될 수 있고, 세극등 검사의 경우 눈 속으로 좁고 가는 불빛을 비추게 되므로 빛의 밝기, 명암 등에 따라 오진의 가능성이 존재한다.
본 발명의 배경이 되는 기술은 대한민국 공개특허공보 제10-2020-0023673호(2020.03.06 공개)에 개시되어 있다.
본 발명이 이루고자 하는 기술적 과제는, 수정체 영역으로부터 7가지의 특징을 추출하고, 추출된 특징을 랜덤 포레스트 알고리즘에 입력하여 백내장 등급을 진단하는 백내장 등급 진단 장치 및 그 방법을 제공하기 위한 것이다.
이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 분류 장치에 있어서, 병증을 진단받고자 하는 피검자의 세극등 이미지를 입력받는 이미지 입력부, 상기 입력된 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 관심 영역을 추출하고, 추출된 관심 영역 내에 포함된 픽셀들로부터 복수의 특징값을 추출하는 특징 추출부, 그리고 상기 추출된 특징값을 기 학습된 랜덤 포레스트 분류기에 입력하여 백내장의 중증도에 대한 등급을 분류하는 중증도 분류부를 포함한다.
상기 특징값은, 상기 관심영역 내에 포함된 픽셀의 평균값, 분산값, 엔트로피, 표준 편차값, R채널의 평균값, G채널의 평균값 및 B채널의 평균값 중에서 적어도 하나를 포함할 수 있다.
상기 특징 추출부는, 상기 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 수정체에 해당하는 객체와 배경으로 분류하고, 상기 분류된 객체를 관심영역으로 추출할 수 있다.
백내장 환자들의 세극등 이미지로부터 관심영역을 추출하고, 추출된 관심영역으로부터 획득한 특징값과 기 진단된 백내장 등급을 이용하여 랜덤 포레스트 분류기를 학습시키는 학습부를 더 포함할 수 있다.
상기 학습부는, 상기 수집된 세극등 이미지로부터 관심 영역을 분할하고, 분할된 관심 영역 내에 포함된 픽셀들을 이용하여 추출된 특징값을 렌즈 불투명성 분류 시스템(LOCS)에 의해 복수의 등급으로 분류하여 그룹화한 다음, 상기 각각의 그룹으로부터 무작위로 추출하여 생성된 데이터셋을 기 구축된 복수의 의사 결정 트리(decision tree)에 입력하여 결과값을 산출하도록 학습시킬 수 있다.
상기 학습부는, 상기 그룹화된 세극등 이미지의 개수가 불균형할 경우, 상기 세극등 이미지에 이미지 어그멘테이션(Image Augmentation)을 적용하여 이미지를 증가시킬 수 있다.
상기 중증도 분류부는, 상기 복수의 의사결정트리로부터 각각 산출된 결과값을 다수결의 원칙에 따라 Normal, Mild 및 Sverer의 등급으로 분류할 수 있다.
또한, 본 발명의 다른 실시예에 따르면 백내장 등급 분류 장치를 이용한 백내장 등급 분류 방법에 있어서, 병증을 진단받고자 하는 피검자의 세극등 이미지를 입력받는 단계, 상기 입력된 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 관심 영역을 추출하고, 추출된 관심 영역 내에 포함된 픽셀들로부터 복수의 특징값을 추출하는 단계, 그리고 상기 추출된 특징값을 기 학습된 랜덤 포레스트 분류기에 입력하여 백내장의 중증도에 대한 등급을 분류하는 단계를 포함한다.
이와 같이 본 발명에 따르면, 세극등 검사를 통해 획득한 수정체 이미지를 이용하여 백내장 여부를 판단할 수 있는 7가지의 특징을 이용하여 분류기를 학습시키고 테스트 함으로서 적절한 분류 결과를 도출할 수 있다. 따라서, 본 발명에 따르면, 의료진이나 검사자의 주관적 해석 개입을 방지하고 객관적 자료와 지표를 이용하여 구체적으로 진단할 수 있으며 의료영상 분석 분야 업무의 효율성을 높일 수 있다.
도 1은 본 발명의 실시예에 따른 백내장 등급 진단 장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 백내장 등급 분류방법을 설명하기 위한 순서도이다.
도 3은 도 2에 도시된 S220단계를 설명하기 위한 순서도이다.
도 4는 세극등 이미지를 나타낸다.
도 5는 도 3에 도시된 S222단계에서 추출된 관심영역을 나타내는 도면이다.
도 6은 도 2에 도시된 S230단계를 설명하기 위한 순서도이다.
이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다.
또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 백내장 등급 분류 장치에 대하여 더욱 상세하게 설명한다.
도 1은 본 발명의 실시예에 따른 백내장 등급 분류 장치를 설명하기 위한 구성도이다.
도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 백내장 등급 분류 장치(100)는 이미지 입력부(110), 특징 추출부(120), 학습부(130) 및 중증도 분류부(140)를 포함한다.
먼저, 이미지 입력부(110)는 세극등 검사를 통해 수정체를 촬영한 세극등 이미지를 수신한다.
그리고, 특징 추출부(120)는 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 관심영역을 추출하고, 추출된 관심영역에 포함된 픽셀을 이용하여 특징값을 추출한다. 여기서, 특징값은 픽셀의 평균값, 분산값, 엔트로피, 표준 편차값, R채널의 평균값, G채널의 평균값 및 B채널의 평균값 중에서 적어도 하나를 포함한다.
학습부(130)는 백내장으로 진단이 완료된 세극등 이미지로부터 추출된 특징값과 기 진단된 백내장 등급을 이용하여 복수의 의사결정트리를 학습시킨다.
마지막으로, 중증도 분류부(140)는 복수의 의사결정트리로부터 각각 산출된 결과값을 이용하여 다수결의 원칙에 따라 백내장 환자의 등급을 Normal, Mild 및 Sverer 중에서 하나의 등급으로 분류한다.
이하에서는 도 2 내지 도 6을 통해 본 발명의 실시예에 따른 백내장 등급 분류 방법에 대해 구체적으로 설명한다.
도 2는 본 발명의 실시예에 따른 백내장 등급 분류방법을 설명하기 위한 순서도이다.
본 발명의 실시예에 따른 백내장 등급 분류방법은, 의사결정트리를 학습하는 단계와, 학습이 완료된 의사결정트리를 이용하여 백내장 등급을 세개의 등급으로 분류할 수 있는 테스트 단계를 포함한다. 도 2에 도시된 바와 같이, 학습단계는 S210 내지 S230 단계를 포함하고, 테스트 단계는 S240 내지 S270 단계를 포함한다.
먼저, 영상수집부(110)는 백내장으로 진단받은 환자의 세극등 이미지를 입력받는다(S210).
세극등 이미지는 세극등 검사를 통해 촬영된 이미지로서, 길고 가는 빛을 비추어서 관찰된 수정체의 상태를 나타낸다. 영상수집부(110)를 통해 입력받은 세극등 이미지는 LOCS(Lens Opacities Classification System)에 의해 등급 판정이 완료된 백내장 환자의 수정체를 나타낸다. 이때, 본 발명의 실시예에 따른 영상수집부는 핵형 백내장으로 진단받은 환자의 세극등 이미지를 입력받는다.
그 다음, 특징 추출부(120)는 입력받은 세극등 이미지로부터 7가지의 특징값을 추출한다(S220).
이하에서는 도 3 내지 도 5를 이용하여 S220단계에 대해 더욱 상세하게 설명한다.
도 3은 도 2에 도시된 S220단계를 설명하기 위한 순서도이고, 도 4는 세극등 이미지를 나타내고, 도 5는 도 3에 도시된 S222단계에서 추출된 관심영역을 나타내는 도면이다.
도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 특징 추출부(120)는 입력받은 세극등 이미지에 플러드 필(flood fill) 알고리즘을 수행한다(S221).
부연하자면, 세극등은 가늘고 긴 빛을 눈에 비춤으로써, 빛에 의해 횡단된 수정체의 단면을 현미경으로 확대하여 관찰하는 검사 방법이다. 그러므로 도 4에 도시된 바와 같이, 세극등 이미지에는 수정체 내에 조사된 빛이 표시될 수 있다.
따라서, 특징 추출부(120)는 수정체 내에 빛이 표시된 부분을 채우기 위하여 플러드 필 알고리즘을 수행한다. 이를 다시 설명하면, 먼저 특징 추출부(120)는 세극등 이미지에 포함된 노이즈를 제거하기 위하여 전처리 과정을 수행한다. 그 다음, 특징 추출부(120)는 전처리가 완료된 세극등 이미지를 구성하는 복수의 픽셀 중에서 어느 하나의 픽셀을 기준점으로 설정한다. 그리고, 특징 추출부(120)는 설정된 기준점을 중심으로 4방향 또는 8방향으로 연결되어 있는 영역을 확장시켜, 수정체 내부에 조명이 표시된 부분을 수정체의 색과 유사한 색으로 대체하여 채운다.
S221 단계가 완료되면, 특징 추출부(120)는 임계값을 이용하여 세극등 이미지로부터 관심영역을 추출한다(S222).
특징 추출부(120)은 밝기의 임계값을 이용하여 관심영역을 추출한다. 부연하자면, 특징 추출부(120)는 세극등 이미지를 구성하는 픽셀들이 가지고 있는 RGB값을 이용하여 가장 밝은 영역과 가장 어두운 영역을 추출한다. 여기서, 가장 밝은 영역은 조명에 의한 반사된 영역을 나타내고, 가장 어두운 영역은 배경부를 나타낸다.
그리고 도 5에 도시된 바와 같이, 특징 추출부(120)는 추출된 가장 밝은 영역과 가장 어두운 영역을 제외한 나머지 영역 즉, 수정체 영역을 관심영역으로 설정하여 추출한다.
그 다음, 특징 추출부(120)는 추출된 관심 영역에 포함된 특징값을 추출한다(S223).
여기서, 특징값은 관심영역 내에 포함된 픽셀의 평균값, 분산값, 엔트로피, 표준 편차값, R채널의 평균값, G채널의 평균값 및 B채널의 평균값 중에서 적어도 하나를 포함한다.
S220단계가 완료되면, 학습부(130)는 추출된 특징값과 기 진단된 백내장 등급을 이용하여 각각의 데이터셋을 생성한다, 그리고 학습부(130)는 생성된 데이터셋을 복수의 의사결정트리에 입력하여 결과값을 산출하도록 학습시킨다(S230).
이하에서는 도 6을 이용하여 S230단계에 대해 더욱 상세하게 설명한다.
도 6은 도 2에 도시된 S230단계를 설명하기 위한 순서도이다.
도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 학습부(130)는 관심영역으로부터 추출된 특징값을 렌즈 불투명성 분류 시스템(LOCS)에 의해 복수의 등급으로 분류하여 그룹화한다(S231).
부연하자면, 핵형 백내장은 렌즈 불투명성 분류 시스템(LOCS)의 등급 분류방법에 따라 6가지 등급으로 분류된다. 그러므로, 학습부(130)는 관심 영역으로부터 추출된 특징값을 6개의 등급으로 분류하여 그룹화한다. 그리고, 학습부(130)는 복수의 그룹으로 분류된 이미지의 개수가 균형적으로 분포되어 있는지의 여부를 판단한다.
판단된 결관 불균형할 경우, 학습부(130)는 세극등 이미지에 이미지 어그멘테이션(Image Augmentation)을 적용하여 이미지를 증가시킨다(S232).
부연하자면, 학습부(130)는 학습하고자 하는 의사결정트리의 과적합을 방지하고, 복수의 그룹 간의 데이터 언발란스를 해소하기 위하여 복수의 그룹 중에서 데이터의 수가 부족한 그룹을 추출한다. 그리고, 학습부(130)는 추출된 그룹의 관심영역을 이용하여 이미지 변형을 수행한다.
이때 이미지 변형 방법은 치수조절(Resize), 크기(Scale), 뒤집기(Flip), 변형(Translate), 회전(Rotate) 및 노이즈(nosie) 중에서 어느 하나의 방법을 이용하여 수행된다.
S232단계가 완료되면, 학습부(130)는 분류된 각 그룹으로부터 무작위로 데이터를 추출하여 학습을 위한 데이터셋과 테스트를 위한 데이터 셋을 7:3의 비율로 생성한다(S233).
한편, 의사결정트리의 정확성을 향상시키기 위하여, 학습부(130)는 복수의 특징값 중에서 선택되는 특징값의 개수 및 종류를 바꿔가며 데이터셋을 생성한다.
그 다음, 학습부(130)는 생성된 학습을 위한 데이터셋과 테스트를 위한 데이터 셋을 이용하여 복수의 의사결정트리를 학습시킨다(S234).
즉, 학습부(130)는 의사결정트리에 학습을 위한 데이터셋을 입력하여 6개의 백내장 등급을 3개의 등급으로 재분류하도록 지도 학습시킨다 이를 다시 설명하면, 입력된 데이터셋을 이용하여 분류된 결과값이 GD1등급이면, 학습부(130)는 의사결정트리로 하여금 GD1등급이 아닌 Normal등급으로 분류하도록 학습시킨다.
또한, 입력된 데이터셋을 이용하여 분류된 결과값이 GD2등급 또는 GD3 등급이면, 학습부(130)는 의사결정트리로 하여금 GD2등급 또는 GD3 등급이 아닌 Mild등급으로 분류하도록 학습시킨다.
또한, 입력된 데이터셋을 이용하여 분류된 결과값이 GD4등급 내지 GD6 중에서 어느 하나의 등급이면, 학습부(130)는 의사결정트리로 하여금 GD4 등급 내지 GD6 등급이 아닌 Svere등급으로 분류하도록 학습시킨다. 여기서 Normal등급은 정상상태를 나타내는 등급이고, Mild등급은 백내장으로 판단되었으나 치료가 시급하지 않은 상태를 나타내는 등급이고, Svere등급은 심각한 단계로 치료가 시급한 상태를 나타내는 등급이다.
지도 학습이 완료된 다음, 학습부(130)는 테스트를 위한 데이터셋을 입력하여 의사결정트리가 제대로 결과값을 산출하는지 테스트를 진행한다.
S230단계가 완료되면, 이미지 입력부(110)는 병증을 진단받고자 하는 피검자의 세극등 이미지를 입력받는다(S240).
이미지 입력부(110)는 세극등 현미경으로부터 촬영된 세극등 이미지를 입력받는다.
그 다음, 특징 추출부(120)는 입력받은 세극등 이미지로부터 관심영역을 추출하고, 추출된 관심영역에 포함된 특징값을 추출한다(S250).
S220단계와 마찬가지로, 특징 추출부(120)는 입력받은 세극등 이미지에 플러드 필 알고리즘을 적용하여 수정체 내에 포함된 빛을 표시하는 영역을 채운다. 그리고, 특징 추출부(120)는 세극등 이미지에 임계값을 적용하여 관심영역을 추출하고, 추출된 관심영역으로부터 특징값을 추출한다.
여기서 특징값은 관심영역 내에 포함된 픽셀의 평균값, 분산값, 엔트로피, 표준 편차값, R채널의 평균값, G채널의 평균값 및 B채널의 평균값 중에서 적어도 하나를 포함한다.
그 다음, 중증도 분류부(150)는 추출된 특징값을 랜덤 포레스트 분류기에 입력한다. 그러면, 랜덤포레스트 분류기는 입력된 특징값을 분석하여 결과값을 산출한다(S260).
부연하자면, 중증도 분류부(150)는 피검자의 세극등 이미지로부터 추출된 특징값을 복수의 의사결정트리에 각각 입력하고, 복수의 의사결정트리로부터 분류된 각각의 결과값을 취합한다. 그 다음, 중증도 분류부(150)는 취합된 결과값으로부터 최종 분류값을 결정한다. 이때, 중증도 분류부(150)는 다수결 논리에 따라 최종 분류값을 결정하되, 단순 투표 방법 또는 가중치 투표 방법 중에서 선택된 하나의 방법을 이용하여 최종 분류값을 결정한다. 이와 같이 본 발명에 따르면, 세극등 검사를 통해 획득한 수정체 이미지를 이용하여 백내장 여부를 판단할 수 있는 7가지의 특징을 이용하여 분류기를 학습시키고 테스트 함으로서 적절한 분류 결과를 도출할 수 있다. 따라서, 본 발명에 따르면, 의료진이나 검사자의 주관적 해석 개입을 방지하고 객관적 자료와 지표를 이용하여 구체적으로 진단할 수 있으며 의료영상 분석 분야 업무의 효율성을 높일 수 있다.
본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
<부호의 설명>
100 : 백내장 등급 분류 장치
110: 이미지 입력부
120: 특징 추출부
130 : 학습부
140 : 중증도 분류부

Claims (14)

  1. 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 분류 장치에 있어서,
    병증을 진단받고자 하는 피검자의 세극등 이미지를 입력받는 이미지 입력부,
    상기 입력된 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 관심 영역을 추출하고, 추출된 관심 영역 내에 포함된 픽셀들로부터 복수의 특징값을 추출하는 특징 추출부, 그리고
    상기 추출된 특징값을 기 학습된 랜덤 포레스트 분류기에 입력하여 백내장의 중증도에 대한 등급을 분류하는 중증도 분류부를 포함하는 백내장 등급 분류 장치.
  2. 제1항에 있어서,
    상기 특징값은,
    상기 관심영역 내에 포함된 픽셀의 평균값, 분산값, 엔트로피, 표준 편차값, R채널의 평균값, G채널의 평균값 및 B채널의 평균값 중에서 적어도 하나를 포함하는 백내장 등급 분류 장치.
  3. 제1항에 있어서,
    상기 특징 추출부는,
    상기 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 수정체에 해당하는 객체와 배경으로 분류하고, 상기 분류된 객체를 관심영역으로 추출하는 백내장 등급 분류 장치.
  4. 제1항에 있어서,
    백내장 환자들의 세극등 이미지로부터 관심영역을 추출하고, 추출된 관심영역으로부터 획득한 특징값과 기 진단된 백내장 등급을 이용하여 랜덤 포레스트 분류기를 학습시키는 학습부를 더 포함하는 백내장 등급 분류 장치.
  5. 제4항에 있어서,
    상기 학습부는,
    상기 수집된 세극등 이미지로부터 관심 영역을 분할하고, 분할된 관심 영역 내에 포함된 픽셀들을 이용하여 추출된 특징값을 렌즈 불투명성 분류 시스템(LOCS)에 의해 복수의 등급으로 분류하여 그룹화한 다음,
    상기 각각의 그룹으로부터 무작위로 추출하여 생성된 데이터셋을 기 구축된 복수의 의사 결정 트리(decision tree)에 입력하여 결과값을 산출하도록 학습시키는 백내장 등급 분류 장치.
  6. 제5항에 있어서,
    상기 학습부는,
    상기 그룹화된 세극등 이미지의 개수가 불균형할 경우, 상기 세극등 이미지에 이미지 어그멘테이션(Image Augmentation)을 적용하여 이미지를 증가시키는 백내장 등급 분류 장치.
  7. 제1항에 있어서,
    상기 중증도 분류부는,
    상기 복수의 의사결정트리로부터 각각 산출된 결과값을 다수결의 원칙에 따라 Normal, Mild 및 Sverer의 등급으로 분류하는 백내장 등급 분류 장치.
  8. 백내장 등급 분류 장치를 이용한 백내장 등급 분류 방법에 있어서,
    병증을 진단받고자 하는 피검자의 세극등 이미지를 입력받는 단계,
    상기 입력된 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 관심 영역을 추출하고, 추출된 관심 영역 내에 포함된 픽셀들로부터 복수의 특징값을 추출하는 단계, 그리고
    상기 추출된 특징값을 기 학습된 랜덤 포레스트 분류기에 입력하여 백내장의 중증도에 대한 등급을 분류하는 단계를 포함하는 백내장 등급 분류 방법.
  9. 제8항에 있어서,
    상기 특징값은,
    상기 관심영역 내에 포함된 픽셀의 평균값, 분산값, 엔트로피, 표준 편차값, R채널의 평균값, G채널의 평균값 및 B채널의 평균값 중에서 적어도 하나를 포함하는 백내장 등급 분류 방법.
  10. 제7항에 있어서,
    상기 복수의 특징값을 추출하는 단계는,
    상기 세극등 이미지에 플러드 필(flood fill) 알고리즘을 적용하여 수정체에 해당하는 객체와 배경으로 분류하고, 상기 분류된 객체를 관심영역으로 추출하는 백내장 등급 분류 방법.
  11. 제8항에 있어서,
    백내장 환자들의 세극등 이미지로부터 관심영역을 추출하고, 추출된 관심영역으로부터 획득한 특징값과 기 진단된 백내장 등급을 이용하여 랜덤 포레스트 분류기를 학습시키는 단계를 더 포함하는 백내장 등급 분류 방법.
  12. 제11항에 있어서,
    상기 랜덤 포레스트 분류기를 학습시키는 단계는,
    상기 수집된 세극등 이미지로부터 관심 영역을 분할하고, 분할된 관심 영역 내에 포함된 픽셀들을 이용하여 추출된 특징값을 렌즈 불투명성 분류 시스템(LOCS)에 의해 복수의 등급으로 분류하여 그룹화하는 단계, 그리고
    상기 각각의 그룹으로부터 무작위로 추출하여 생성된 데이터셋을 기 구축된 복수의 의사 결정 트리(decision tree)에 입력하여 결과값을 산출하도록 학습시키는 단계를 포함하는 백내장 등급 분류 방법.
  13. 제12항에 있어서,
    상기 랜덤 포레스트 분류기를 학습시키는 단계는,
    상기 그룹화된 세극등 이미지의 개수가 불균형할 경우, 상기 세극등 이미지에 이미지 어그멘테이션(Image Augmentation)을 적용하여 이미지를 증가시키는 백내장 등급 분류 방법.
  14. 제8항에 있어서,
    상기 중증도를 등급으로 분류하는 단계는,
    상기 복수의 의사 결정 트리로부터 각각 산출된 결과값을 다수결의 원칙에 따라 Normal, Mild 및 Sverer 의 등급으로 분류하는 백내장 등급 분류 방법.
PCT/KR2020/011728 2020-08-11 2020-09-01 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법 WO2022034956A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200100656A KR102358024B1 (ko) 2020-08-11 2020-08-11 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법
KR10-2020-0100656 2020-08-11

Publications (1)

Publication Number Publication Date
WO2022034956A1 true WO2022034956A1 (ko) 2022-02-17

Family

ID=80247015

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/011728 WO2022034956A1 (ko) 2020-08-11 2020-09-01 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법

Country Status (2)

Country Link
KR (1) KR102358024B1 (ko)
WO (1) WO2022034956A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937085A (zh) * 2022-06-28 2023-04-07 哈尔滨学院 一种基于神经网络学习的核性白内障图像处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521682A (ja) * 2008-05-20 2011-07-28 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 皮質白内障診断のための自動混濁検出システム
JP6361065B2 (ja) * 2014-05-13 2018-07-25 株式会社三城ホールディングス 白内障検査装置および白内障判定プログラム
US20190110753A1 (en) * 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
KR20200023673A (ko) * 2018-08-16 2020-03-06 한국과학기술원 백내장 진단을 위한 토너먼트 기반의 랭킹 컨볼루셔널 뉴럴 네트워크

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011521682A (ja) * 2008-05-20 2011-07-28 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ 皮質白内障診断のための自動混濁検出システム
JP6361065B2 (ja) * 2014-05-13 2018-07-25 株式会社三城ホールディングス 白内障検査装置および白内障判定プログラム
US20190110753A1 (en) * 2017-10-13 2019-04-18 Ai Technologies Inc. Deep learning-based diagnosis and referral of ophthalmic diseases and disorders
KR20200023673A (ko) * 2018-08-16 2020-03-06 한국과학기술원 백내장 진단을 위한 토너먼트 기반의 랭킹 컨볼루셔널 뉴럴 네트워크

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HAN EUN JEONG: "A Prediction Model for the Development of Cataract Using Random Forests", KOREAN JOURNAL OF APPLIED STATISTICS, vol. 22, no. 4, 1 January 2009 (2009-01-01), pages 771 - 780, XP055900248 *
KIM DAEHAN, CHO KYUNGJIN, KIM DAEWON: "Cataract Grade Classification Using Image Features and RF Classifier", JOURNAL OF THE INSTITUTE OF ELECTRONICS ENGINEERS OF KOREA SUMMER CONFERENCE 2020, 19 August 2020 (2020-08-19), pages 932 - 936, XP055900251 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115937085A (zh) * 2022-06-28 2023-04-07 哈尔滨学院 一种基于神经网络学习的核性白内障图像处理方法

Also Published As

Publication number Publication date
KR102358024B1 (ko) 2022-02-07

Similar Documents

Publication Publication Date Title
Gao et al. Automatic feature learning to grade nuclear cataracts based on deep learning
Khan et al. Cataract detection using convolutional neural network with VGG-19 model
WO2018074739A1 (ko) 뇌졸중 진단 및 예후 예측 방법 및 시스템
WO2019208848A1 (ko) 3차원 안구 움직임 측정 방법 및 전자동 딥러닝 기반 어지럼 진단 시스템
CN106780475A (zh) 一种基于病理组织切片图像组织区域的图像处理方法及装置
WO2021182889A2 (ko) 영상 기반의 안질환 진단 장치 및 방법
WO2019240567A1 (ko) 전안부 질환 진단 시스템 및 이를 이용한 진단 방법
WO2023063646A1 (ko) 기계학습 기반 고관절 골절 진단을 위한 골밀도 도출 방법 및 이를 이용한 골밀도 도출 프로그램
Tu et al. SUNet: A lesion regularized model for simultaneous diabetic retinopathy and diabetic macular edema grading
WO2022034956A1 (ko) 랜덤 포레스트 알고리즘을 기반으로 하는 백내장 등급 진단 장치 및 그 방법
WO2016159726A1 (ko) 의료 영상으로부터 병변의 위치를 자동으로 감지하는 장치 및 그 방법
US20200294225A1 (en) Artificial intelligence cataract analysis system
WO2019098415A1 (ko) 자궁경부암에 대한 피검체의 발병 여부를 판정하는 방법 및 이를 이용한 장치
Zhang et al. DeepUWF: an automated ultra-wide-field fundus screening system via deep learning
WO2020180135A1 (ko) 뇌 질환 예측 장치 및 방법, 뇌 질환을 예측하기 위한 학습 장치
KR102220573B1 (ko) 인공지능을 이용한 안저 영상 데이터의 품질 점수 산출 방법, 장치 및 컴퓨터프로그램
WO2022085986A1 (ko) 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법
Wu et al. Artificial intelligence model for antiinterference cataract automatic diagnosis: a diagnostic accuracy study
Triyadi et al. Deep learning in image classification using vgg-19 and residual networks for cataract detection
Athira et al. Automatic detection of diabetic retinopathy using R-CNN
WO2020246676A1 (ko) 자궁경부암 자동 진단 시스템
WO2018221816A1 (en) Method for determining whether examinee is infected by microorganism and apparatus using the same
WO2023068732A1 (ko) 신경 심리 검사에 대한 점수를 획득하는 방법 및 이를 수행하는 신경 심리 검사 장치 및 컴퓨터 판독 가능한 기록매체
CN112263220A (zh) 一种内分泌疾病智能诊断系统
WO2021112436A1 (ko) 장 정결도의 자동화 계산 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20949588

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20949588

Country of ref document: EP

Kind code of ref document: A1