KR102585321B1 - Method of learning medical image for dementia decision - Google Patents

Method of learning medical image for dementia decision Download PDF

Info

Publication number
KR102585321B1
KR102585321B1 KR1020200182190A KR20200182190A KR102585321B1 KR 102585321 B1 KR102585321 B1 KR 102585321B1 KR 1020200182190 A KR1020200182190 A KR 1020200182190A KR 20200182190 A KR20200182190 A KR 20200182190A KR 102585321 B1 KR102585321 B1 KR 102585321B1
Authority
KR
South Korea
Prior art keywords
learning
data
medical image
image
dementia
Prior art date
Application number
KR1020200182190A
Other languages
Korean (ko)
Other versions
KR20220091667A (en
Inventor
정석찬
김재균
오성훈
전영준
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020200182190A priority Critical patent/KR102585321B1/en
Publication of KR20220091667A publication Critical patent/KR20220091667A/en
Application granted granted Critical
Publication of KR102585321B1 publication Critical patent/KR102585321B1/en

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/70ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mental therapies, e.g. psychological therapy or autogenous training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4076Diagnosing or monitoring particular conditions of the nervous system
    • A61B5/4088Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6821Eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Databases & Information Systems (AREA)
  • Veterinary Medicine (AREA)
  • Psychology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • Developmental Disabilities (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Child & Adolescent Psychology (AREA)
  • Neurology (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Physiology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Neurosurgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

치매 판단을 위한 의료용 이미지 학습 방법이 개시된다. 본 발명은 치매 여부 판단을 위한 의료용 이미지 및 라벨링 데이터를 기초로 제1 데이터를 생성하는 단계, 제1 학습 알고리즘 및 상기 제1 데이터를 활용하여 상기 의료용 이미지를 학습하는 단계 및 테스트 이미지를 이용하여 상기 학습의 결과를 검증하는 단계를 포함하되, 상기 의료용 이미지는 안저 카메라로 촬영된 안구 이미지일 수 있다. A medical image learning method for determining dementia is disclosed. The present invention includes the steps of generating first data based on medical images and labeling data for determining dementia, learning the medical images using a first learning algorithm and the first data, and using a test image to learn the medical images. It includes a step of verifying the results of learning, and the medical image may be an eye image captured with a fundus camera.

Description

치매 판단을 위한 의료용 이미지 학습 방법{METHOD OF LEARNING MEDICAL IMAGE FOR DEMENTIA DECISION}Medical image learning method for dementia judgment {METHOD OF LEARNING MEDICAL IMAGE FOR DEMENTIA DECISION}

본 발명은 치매 판단을 위한 의료용 이미지 학습 방법에 관한 것이다. 보다 상세하게는 CNN 학습 알고리즘을 활용하여 안구 이미지를 학습하기 위하여 상기 안구 이미지를 전처리하고 학습하기 위한 방법에 관한 것이다.The present invention relates to a medical image learning method for determining dementia. More specifically, it relates to a method for preprocessing and learning eye images in order to learn eye images using a CNN learning algorithm.

퇴행성 뇌질환 중 특히 치매는 현재 4대 주요 사인으로 불릴 정도로 중요한 신경질환으로, 상태가 매우 악화되고 나서야 증상이 나타나고 그 증상 또한 정확한 판별이 불가능하여 조기에 발견하는 것이 어려운 실정이다.Among degenerative brain diseases, dementia in particular is a neurological disease so important that it is currently called one of the four major causes of death. Symptoms appear only after the condition has worsened, and the symptoms cannot be accurately identified, making early detection difficult.

이러한 치매는 뇌세포의 손상으로 발생하는 대표적인 뇌질환으로 주로 노년기에 많이 생기며, 뇌세포는 다른 세포와는 달리 재생되지 않으므로 예방 또는 조기에 발견하여 치료하는 것이 가장 안전하고 효율적으로 치료할 수 있는 방법으로 알려져 있다.Dementia is a representative brain disease caused by damage to brain cells, and it mainly occurs in old age. Unlike other cells, brain cells do not regenerate, so prevention or early detection and treatment are the safest and most efficient ways to treat it. It is known.

치매란, 인간이 가진 여려가지 인지기능인 기억력, 주의력, 언어기증, 시공간능력을 포함한 측두엽 및 전두엽 집행기능 등에 장애가 발생하여 일상생활이나 사회생활을 하는데 어려움을 초래하는 상태를 말한다. 치매는 그 발생 원인에 따라 알츠하이머 치매, 혈관성 치매, 루이소체 치매, 전두엽 치매 등으로 구분된다. 알츠하이머 치매는 치매 환자의 70%를 차지한다. Dementia refers to a condition that causes difficulties in daily life or social life due to disorders in the temporal lobe and frontal lobe executive function, including memory, attention, language, and visuospatial ability, which are various cognitive functions that humans have. Depending on the cause, dementia is classified into Alzheimer's dementia, vascular dementia, Lewy body dementia, and frontal lobe dementia. Alzheimer's dementia accounts for 70% of dementia patients.

알츠하이머 치매는 인식 능력을 점차적으로 저하시키며 종종 기억력을 상실하는 데에서부터 시작한다. 원인으로는 아밀로 이드반이라는 비정상적인 단백질 덩어리와 신경섬유매듭이라는 단백질 덩어리가 서로 얽혀 신경세포들과의 커뮤니케이션을 막아 세포를 죽임으로써 알츠하이머 치매가 발생한다. Alzheimer's dementia causes a gradual decline in cognitive ability and often begins with memory loss. The cause is that abnormal protein clumps called amyloid plaques and protein clumps called neurofibrillary tangles become intertwined, blocking communication with nerve cells and killing the cells, resulting in Alzheimer's dementia.

혈관성 치매는 뇌의 혈관 손상이 초래한 인식 장애이다. 그래서 뇌졸증 환자가 치매에 걸릴 가능성이 있다. 게다가 알츠하이머 질환과 유사한 증상이 나타날 수 있어 구별하기가 쉽지 않을 수 있다. Vascular dementia is a cognitive impairment caused by damage to blood vessels in the brain. Therefore, there is a possibility that stroke patients may develop dementia. In addition, symptoms similar to Alzheimer's disease may appear, so it may not be easy to distinguish it.

루이소체 치매는 알파시투클레인이라는 비정상적인 단백질 덩어리가 뇌의 특정 부위에 발생함으로써 발병할 수 있다. 루이소체 치매는 움직임과 사고, 그리고 행동의 변화를 초래할 수 있다. 흔히, 움직임 증세가 먼저 나타나면 파킨슨 병으로 진단하고 인식적 증세가 먼저 나타나면 로이소체 치매라고 진단할 수 있다. Lewy body dementia can occur when abnormal protein clumps called alpha-cytuclein develop in specific areas of the brain. Lewy body dementia can cause changes in movement, thinking, and behavior. Typically, if movement symptoms appear first, it can be diagnosed as Parkinson's disease, and if cognitive symptoms appear first, it can be diagnosed as Lewy body dementia.

전두엽 치매는 전측두엽성 치매라고도 하며 뇌의 전두엽 및 측두엽에 점진적인 손상이 있을 때 발생할 수 있다. 전두엽의 손상은 행동 증세 및 인격 변화를 초래하고, 측두엽의 손상은 언어 장애를 초래할 수 있으며 이 2가지가 병행될 수도 있다. Frontal lobe dementia, also called frontotemporal dementia, can occur when there is progressive damage to the frontal and temporal lobes of the brain. Damage to the frontal lobe can result in behavioral symptoms and personality changes, and damage to the temporal lobe can cause language impairment, and these two can occur simultaneously.

홍채는 뇌의 연장으로서 수십만 가닥의 신경말단과 모세혈관 및 근검유 조직을 가지고 있어, 홍체는 뇌에 대한 진단 지표로서의 역할을 수행할 수 있다고 알려져 있다. 이를 이용하여, 개인적 건강이나 치료에 대한 반응을 살펴보기 위하여 홍채를 통한 진단 방법이 발달하고 있는 실정이다. The iris is an extension of the brain and has hundreds of thousands of nerve endings, capillaries, and muscle tissue, and it is known that the iris can serve as a diagnostic index for the brain. Using this, diagnostic methods using iris are being developed to examine personal health or response to treatment.

특히, 종래에는 딥 러닝 기반으로 치매를 예측하더라도, 홍채에 대한 이미지가 아니라 환자의 장 내에 분포하는 미생물, 바이러스 등을 학습하고 이를 통하여 치매 여부를 판단하고자 하는 연구가 진행되고 있었으나, 이러한 치매 판단 방법은 효율성이 떨어지고 쉽게 실시하기 어려운 문제점이 존재하였다. In particular, in the past, even though dementia was predicted based on deep learning, research was being conducted to determine dementia by learning microorganisms and viruses distributed in the patient's intestines, rather than images of the iris. However, this method of determining dementia was conducted. There were problems in that it was inefficient and difficult to implement.

대한민국 공개특허공보 제10-2020-0066578호 (2020년 6월 10일 공개)Republic of Korea Patent Publication No. 10-2020-0066578 (published on June 10, 2020)

본 발명의 목적은 의료용 이미지(특히, 안구 이미지)를 인공지능으로 학습하여 보다 쉽고 빠르게 치매 여부를 판단하기 위하여, 치매 판단을 위한 의료용 이미지 학습 방법을 제공하는 것이다. The purpose of the present invention is to provide a medical image learning method for dementia determination in order to more easily and quickly determine dementia by learning medical images (particularly eye images) using artificial intelligence.

또한, 본 발명의 목적은 광대한 의료용 이미지에 대한 빠른 전처리를 위하여, 이미지 파일의 명칭을 기초로 라벨링하여 전처리 시간을 현저하게 감소하기 위한 치매 판단을 위한 의료용 이미지 학습 방법을 제공하는 것이다. In addition, the purpose of the present invention is to provide a medical image learning method for dementia judgment to significantly reduce pre-processing time by labeling image files based on their names for rapid pre-processing of vast medical images.

또한, 본 발명의 목적은 광대한 의료용 이미지에 대한 빠른 전처리를 위하여, CSV 파일의 라벨링 데이터를 활용하여 이미지 파일의 명칭을 라벨링하는 치매 판단을 위한 의료용 이미지 학습 방법을 제공하는 것이다. In addition, the purpose of the present invention is to provide a medical image learning method for dementia judgment that labels the name of the image file using labeling data of a CSV file for rapid preprocessing of a vast amount of medical images.

또한, 본 발명의 목적은 환자의 나이를 고려한 학습 알고리즘을 제공하여, 보다 정확한 결과값을 가질 수 있는 치매 판단을 위한 의료용 이미지 학습 방법을 제공하는 것이다. Additionally, the purpose of the present invention is to provide a medical image learning method for dementia judgment that can produce more accurate results by providing a learning algorithm that takes into account the patient's age.

상술한 과제를 해결하기 위하여, 본 발명은, 치매 여부 판단을 위한 의료용 이미지 및 라벨링 데이터를 기초로 제1 데이터를 생성하는 단계, 제1 학습 알고리즘 및 상기 제1 데이터를 활용하여 상기 의료용 이미지를 학습하는 단계 및 테스트 이미지를 이용하여 상기 학습의 결과를 검증하는 단계를 포함하되, 상기 의료용 이미지는 안저 카메라로 촬영된 안구 이미지일 수 있다. In order to solve the above-described problem, the present invention includes generating first data based on medical images and labeling data for determining dementia, learning the medical image using a first learning algorithm and the first data. and verifying the results of the learning using a test image, wherein the medical image may be an eye image captured with a fundus camera.

또한, 상기 제1 데이터를 생성하는 단계는, 상기 의료용 이미지의 파일명 및 상기 라벨링 데이터를 매칭하여 상기 제1 데이터를 생성할 수 있다. Additionally, in the step of generating the first data, the first data may be generated by matching the file name of the medical image and the labeling data.

이때, 상기 라벨링 데이터는 이진 분류를 위한 데이터를 포함하고, 상기 제1 데이터를 생성하는 단계는, 상기 의료용 의미지의 파일명과 상기 이진 분류를 위한 데이터를 매칭하여 상기 제1 데이터를 생성할 수 있다. At this time, the labeling data includes data for binary classification, and the step of generating the first data may generate the first data by matching the file name of the medical semantic paper and the data for binary classification.

또한, 상기 의료용 이미지를 학습하는 단계는 상기 의료용 이미지에 대한 임베딩 값을 생성하고, 상기 임베딩 값 및 상기 제1 데이터를 기초로 상기 의료용 이미지의 특징들을 학습할 수 있다. Additionally, the step of learning the medical image may generate an embedding value for the medical image and learn features of the medical image based on the embedding value and the first data.

이때, 상기 제1 학습 알고리즘은, CNN 학습 알고리즘에 따른 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. At this time, the first learning algorithm may be a learning algorithm using a plurality of layers according to a CNN learning algorithm.

이때, 상기 제1 학습 알고리즘은 샴 네트워크(Siamese Network) 알고리즘 및 로지스틱 회기 분석(Logistic regression analysis) 알고리즘을 포함하되, 상기 샴 네트워크는 제1 네트워크 및 제2 네트워크를 포함하고, 상기 제1 네트워크는 상기 임베딩 값으로 대체되고, 상기 제2 네트워크는 새로운 의료용 이미지에 대한 새로운 임베딩 값을 획득하며, 상기 로지스틱 회기 분석 알고리즘은, 상기 임베딩 값 및 상기 새로운 임베딩 값을 기초로 이진 분류할 수 있다. At this time, the first learning algorithm includes a Siamese Network algorithm and a Logistic regression analysis algorithm, wherein the Siamese network includes a first network and a second network, and the first network includes the It is replaced with an embedding value, the second network obtains a new embedding value for the new medical image, and the logistic regression analysis algorithm can perform binary classification based on the embedding value and the new embedding value.

또한, 상기 임베딩 값은 상기 새로운 임베딩 값을 기초로 수정될 수 있다. Additionally, the embedding value may be modified based on the new embedding value.

또한, 상술한 과제를 해결하기 위하여, 본 발명은, 명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서, 상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 상술한 방법들 중 어느 하나의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체일 수 있다. In addition, in order to solve the above-described problem, the present invention provides a non-transitory computer-readable medium storing instructions, which, when executed by a processor, cause the processor to perform any one of the above-described methods. It may be a non-transitory computer-readable medium that allows.

본 발명은 의료용 이미지(특히, 안구 이미지)를 인공지능으로 학습하여 보다 쉽고 빠르게 치매 여부를 판단하기 위하여, 치매 판단을 위한 의료용 이미지 학습 방법을 제공하는 효과가 있다. The present invention has the effect of providing a medical image learning method for dementia determination in order to more easily and quickly determine dementia by learning medical images (especially eye images) using artificial intelligence.

또한, 본 발명은 이미지 파일의 명칭에 이진 분류 라벨링을 수행함으로써, 광대한 의료용 이미지에 대하여 보다 빠른 전처리가 가능한 효과가 있다. Additionally, the present invention has the effect of enabling faster preprocessing of vast medical images by performing binary classification labeling on the names of image files.

또한, 본 발명은 이미지 파일의 명칭에 CSV 파일에 포함된 라벨링 데이터를 수행함으로써, 광대한 의료용 이미지에 대하여 보다 빠른 전처리가 가능한 효과가 있다. In addition, the present invention has the effect of enabling faster preprocessing of vast medical images by applying labeling data included in the CSV file to the name of the image file.

또한, 본 발명은 환자의 나이를 고려한 학습 알고리즘을 제안함에 따라 안구 노화에 따른 오류를 보정하여, 광대한 의료용 이미지에 대하여 보다 효율적이고 빠른 전처리가 가능한 효과가 있다. In addition, the present invention proposes a learning algorithm that takes into account the patient's age, thereby correcting errors due to eye aging, enabling more efficient and faster preprocessing of vast medical images.

본 발명에 따라 얻을 수 있는 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained according to the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.

도 1은 본 발명에 따른 치매 판단을 위한 의료용 이미지 학습 방법을 나타낸 도면이다.
도 2는 본 발명에 따른 의료용 이미지 및 그 파일명을 나타낸 도면이다.
도 3은 본 발명에 따른 CSV 파일 일부를 나타낸 도면이다.
도 4는 본 발명에 따른 의료용 이미지 분류 및 알고리즘 검증 방식을 나타낸 도면이다.
도 5는 본 발명에 따른 CNN 네트워크 알고리즘을 나타낸 도면이다.
도 6은 본 발명에 따른 CNN 필터를 나타낸 도면이다.
도 7은 본 발명에 따른 샴 네트워크 알고리즘을 나타낸 도면이다.
본 명세서에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 명세서에 대한 실시예를 제공하고, 상세한 설명과 함께 본 명세서의 기술적 특징을 설명한다.
1 is a diagram showing a medical image learning method for determining dementia according to the present invention.
Figure 2 is a diagram showing a medical image and its file name according to the present invention.
Figure 3 is a diagram showing a portion of a CSV file according to the present invention.
Figure 4 is a diagram showing a medical image classification and algorithm verification method according to the present invention.
Figure 5 is a diagram showing the CNN network algorithm according to the present invention.
Figure 6 is a diagram showing a CNN filter according to the present invention.
Figure 7 is a diagram showing the Siamese network algorithm according to the present invention.
The accompanying drawings, which are included as part of the detailed description to aid understanding of the present specification, provide embodiments of the present specification and explain technical features of the present specification together with the detailed description.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the attached drawings. However, identical or similar components will be assigned the same reference numbers regardless of reference numerals, and duplicate descriptions thereof will be omitted.

또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. Additionally, in describing the embodiments disclosed in this specification, if it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed descriptions will be omitted.

또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. In addition, the attached drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical idea disclosed in this specification is not limited by the attached drawings, and all changes included in the spirit and technical scope of the present invention are not limited. , should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms containing ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by the terms. The above terms are used only for the purpose of distinguishing one component from another.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “comprise” or “have” are intended to designate the presence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification, but are not intended to indicate the presence of one or more other features. It should be understood that this does not exclude in advance the possibility of the existence or addition of elements, numbers, steps, operations, components, parts, or combinations thereof.

이하, 상술한 내용들을 바탕으로 본 명세서의 바람직한 일 실시예에 따른, 치매 판단을 위한 의료용 이미지 학습 방법에 관하여 상세히 설명하면 다음과 같다.Below, based on the above-described contents, a detailed description of the medical image learning method for determining dementia according to a preferred embodiment of the present specification is as follows.

도 1은 본 발명에 따른 치매 판단을 위한 의료용 이미지 학습 방법을 나타낸 도면이다. 1 is a diagram showing a medical image learning method for determining dementia according to the present invention.

도 1에 따르면, 본 발명에 따른 학습 방법은, 치매 여부 판단을 위한 의료용 이미지 및 라벨링 데이터를 기초로 제1 데이터를 생성하는 단계(S1100), 제1 학습 알고리즘 및 제1 데이터를 활용하여 의료용 이미지를 학습하는 단계(S1200) 및 테스트 이미지를 이용하여 학습의 결과를 검증하는 단계(S1300)를 포함할 수 있다. According to Figure 1, the learning method according to the present invention includes generating first data based on medical images and labeling data for determining dementia (S1100), and generating a medical image using the first learning algorithm and first data. It may include a step of learning (S1200) and a step of verifying the learning result using a test image (S1300).

이때, 의료용 이미지는 안저 카메라로 촬영된 안구 이미지일 수 있다. 안구 이미지는 홍채, 안구에 분포된 혈관 및 안구에 분포된 신경 중 적어도 하나를 포함할 수 있다. 본 발명에 따른 학습 방법은 상술한 안구 이미지 중 홍채, 안구에 분포된 혈관 및 안구에 분포된 신경 중 적어도 하나를 학습할 수 있다. At this time, the medical image may be an eye image captured with a fundus camera. The eye image may include at least one of the iris, blood vessels distributed to the eye, and nerves distributed to the eye. The learning method according to the present invention can learn at least one of the iris, blood vessels distributed in the eye, and nerves distributed in the eye among the above-described eye images.

또한, 치매 여부 판단을 위한 의료용 이미지 및 라벨링 데이터를 기초로 제1 데이터를 생성하는 단계(S1100)는 의료용 이미지의 파일명 및 라벨링 데이터를 매칭하여 제1 데이터를 생성하는 단계일 수 있다. Additionally, the step of generating first data based on the medical image and labeling data for determining dementia (S1100) may be a step of generating the first data by matching the file name and labeling data of the medical image.

이때, 라벨링 데이터는 이진 분류를 위한 데이터를 포함하고, 제1 데이터를 생성하는 단계는 의료용 의미지의 파일명과 이진 분류를 위한 데이터를 매칭하여 제1 데이터를 생성할 수 있다. At this time, the labeling data includes data for binary classification, and the step of generating the first data may generate the first data by matching the file name of the medical semantic paper and the data for binary classification.

의료용 이미지를 학습하는 단계(S1200)는 의료용 이미지에 대한 임베딩 값을 생성하고, 임베딩 값 및 제1 데이터를 기초로 의료용 이미지의 특징들을 학습할 수 있다. 즉, 의료용 이미지를 학습하는 단계(S1200)는 제1 데이터에 따른 라벨링된 결과를 기초로 의료용 이미지에 대한 임베딩 값을 학습하는 단계일 수 있다. In the step of learning the medical image (S1200), an embedding value for the medical image may be generated and features of the medical image may be learned based on the embedding value and the first data. That is, the step of learning the medical image (S1200) may be a step of learning the embedding value for the medical image based on the labeled result according to the first data.

테스트 이미지를 이용하여 학습의 결과를 검증하는 단계(S1300)는 학습이 잘 되었는지를 판단하는 단계일 수 있다. 학습의 결과를 검증하는 단계(S1300)는 치매 여부에 대한 결과를 미리 알고 있는 테스트 이미지를 입력하여 이진 분류를 수행하는 단계, 및 테스트 이미지에 대한 이진 분류 결과값과 미리 알려진 이진 분류 결과값을 비교하는 단계를 포함할 수 있다. 테스트 이미지에 대한 이진 분류 결과값과 미리 알려진 이진 분류값이 동일한 경우, 해당 학습이 잘 수행되고 있는 것으로 판단되며, 이로서 검증이 종료될 수 있다. 반대로, 상기 2개의 이진 븐류값이 서로 다른 경우, 해당 학습에 대한 조건이 잘못 설정된 것으로 판단되며, 이로서 검증이 종료될 수 있다. The step of verifying the learning results using a test image (S1300) may be a step of determining whether the learning was successful. The step of verifying the results of learning (S1300) is to perform binary classification by inputting a test image for which the result of dementia is known in advance, and to compare the binary classification result for the test image with the previously known binary classification result. It may include steps. If the binary classification result for the test image is the same as the previously known binary classification value, it is determined that the learning is being performed well, and verification can be terminated. Conversely, if the two binary stream values are different from each other, it is determined that the conditions for the corresponding learning were set incorrectly, and verification may be terminated.

또한, 학습의 결과를 검증하는 단계(S1300)는 성능 평가일 수 있다. 즉, 학습의 결과를 검증하는 단계(S1300)는 복수의 테스트 이미지를 입력하고 해당 복수의 테스트 이미지에 대한 이진 분류 결과값을 획득하는 단계와, 획득한 이진 분류 결과값과 미리 알려진 이진 분류값들을 비교하는 단계, 및 복수의 테스트 이미지들에 대한 비교 결과에 대한 확률값을 획득하는 단계를 포함할 수 있다. 따라서, 획득된 확률값이 미리 정해진 값보다 큰 값이면, 해당 학습의 결과가 검증된 것으로 판단될 수 있다. Additionally, the step of verifying the learning results (S1300) may be performance evaluation. That is, the step of verifying the results of learning (S1300) involves inputting a plurality of test images and obtaining binary classification results for the plurality of test images, and combining the obtained binary classification results and previously known binary classification values. It may include a step of comparing, and a step of obtaining a probability value for a comparison result of a plurality of test images. Therefore, if the obtained probability value is greater than a predetermined value, the result of the learning may be determined to be verified.

도 2는 본 발명에 따른 의료용 이미지 및 그 파일명을 나타낸 도면이고, 도 3은 본 발명에 따른 CSV 파일 일부를 나타낸 도면이며, 도 4는 본 발명에 따른 의료용 이미지 파일명 및 CSV 파일을 매칭한 결과를 나타낸 도면이다. Figure 2 is a diagram showing a medical image and its file name according to the present invention, Figure 3 is a diagram showing a portion of a CSV file according to the present invention, and Figure 4 is a diagram showing the result of matching the medical image file name and CSV file according to the present invention. This is the drawing shown.

도 2에 따르면, 의료용 이미지의 파일명은 자동으로 생성된 파일명일 수 있다. 파일명은 이미지 파일이 형성된 시간 정보를 기초로 랜덤으로 생성될 수 있다. According to FIG. 2, the file name of the medical image may be an automatically generated file name. The file name may be randomly generated based on information on the time the image file was formed.

도 3에 따르면, 이진 분류를 위한 데이터는 1, 0을 포함할 수 있고, 이때, 1은 해당 이미지 파일이 치매 환자의 이미지 파일이라는 정보를 의미할 수 있고, 0은 해당 이미지 파일이 정상인의 이미지 파일이라는 정보를 의미할 수 있다. 1과 0은 하나의 예시일 뿐이며 서로 바뀔 수도 있고 다른 숫자 또는 다른 문자를 사용할 수도 있다. According to Figure 3, data for binary classification may include 1 and 0, where 1 may mean information that the image file is an image file of a dementia patient, and 0 may indicate that the image file is an image of a normal person. It may mean information called a file. 1 and 0 are just examples and can be interchanged or other numbers or letters can be used.

도 3에 따르면, 의료용 이미지의 파일명을 기준으로 이진 분류법을 통한 라벨링이 정의되어 있다. 상술한 제1 데이터는 도 3과 같이 파일명과 라벨링 값이 서로 매칭되어 정의된 데이터들을 의미할 수 있다. According to Figure 3, labeling through binary classification is defined based on the file name of the medical image. The above-described first data may refer to data defined by matching file names and labeling values, as shown in FIG. 3.

도 4는 본 발명에 따른 의료용 이미지 분류 및 알고리즘 검증 방식을 나타낸 도면이다. Figure 4 is a diagram showing a medical image classification and algorithm verification method according to the present invention.

도 4에 따르면, 본 발명은 이미지 분류 모듈(100) 및 검증 모듈(200)을 포함할 수 있다. 본 발명에 따른 의료용 이미지 분류 모듈(100)은, 이미지 데이터와 라벨링 데이터가 매칭되는 데이터셋 빌더(Dataset Builder, 110), 훈련 이미지 및 검증 이미지를 기계학습(ML, Machine Learning)하는 CNN 모델링 모듈(120), 및 테스트 이미지를 사용하여 성능 평가(Performance Evalution)하는 평가 모듈(130)을 포함할 수 있다. According to FIG. 4, the present invention may include an image classification module 100 and a verification module 200. The medical image classification module 100 according to the present invention includes a dataset builder (Dataset Builder, 110) that matches image data and labeling data, and a CNN modeling module (ML) that performs machine learning (ML) on training images and verification images. 120), and an evaluation module 130 that performs performance evaluation using a test image.

데이터셋 빌더(110)는 의료용 의미지(또는 안구 이미지) 및 라벨링 데이터를 수신하고 이를 매칭할 수 있는 모듈일 수 있다. 또한, 데이터셋 빌더(110)는 매칭된 결과를 트레이닝 이미지(Training Images), 검증 이미지(Validation Images) 및 테스트 이미지(Test Images)로 나눌 수 있다. 트레이닝 이미지 및 검증 이미지는 CNN 모델링 모듈(120)으로 전달되고, 테스트 이미지는 평가 모듈(130)으로 전달될 수 있다. The dataset builder 110 may be a module that can receive medical semantics (or eye image) and labeling data and match them. Additionally, the dataset builder 110 may divide the matched results into training images, validation images, and test images. Training images and verification images may be transmitted to the CNN modeling module 120, and test images may be transmitted to the evaluation module 130.

데이터셋 빌더(110)는 치매 여부 판단을 위한 의료용 이미지 및 라벨링 데이터를 기초로 제1 데이터를 생성할 수 있다. 데이터셋 빌더(110)는 의료용 이미지의 파일명 및 라벨링 데이터를 매칭하여 상기 제1 데이터를 생성할 수 있다. 즉, 데이터셋 빌더(110)는 의료용 의미지의 파일명과 이진 분류를 위한 데이터를 매칭하여 제1 데이터를 생성할 수 있다. The dataset builder 110 may generate first data based on medical images and labeling data for determining dementia. The dataset builder 110 may generate the first data by matching the file name and labeling data of the medical image. That is, the dataset builder 110 can generate first data by matching the file name of the medical semantic paper and data for binary classification.

CNN 모델링 모듈(120)는 트레이닝 이미지 및 검증 이미지를 제1 학습 알고리즘을 사용하여 학습할 수 있다. CNN 모델링 모듈(120)는 제1 학습 알고리즘 및 상기 제1 데이터를 활용하여 상기 의료용 이미지를 학습할 수 있다. 즉, CNN 모델링 모듈(120)는 상기 의료용 이미지에 대한 임베딩 값을 생성하고, 상기 임베딩 값 및 상기 제1 데이터를 기초로 상기 의료용 이미지의 특징들을 학습할 수 있다. 이때, 제1 학습 알고리즘은 CNN 학습 알고리즘에 따른 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. The CNN modeling module 120 may learn training images and verification images using a first learning algorithm. The CNN modeling module 120 may learn the medical image using a first learning algorithm and the first data. That is, the CNN modeling module 120 may generate an embedding value for the medical image and learn features of the medical image based on the embedding value and the first data. At this time, the first learning algorithm may be a learning algorithm using a plurality of layers according to the CNN learning algorithm.

또한, 제1 학습 알고리즘은 샴 네트워크(Siamese Network) 알고리즘 및 로지스틱 회기 분석(Logistic regression analysis) 알고리즘을 포함하되, 샴 네트워크는 제1 네트워크 및 제2 네트워크를 포함하고, 제1 네트워크는 상기 임베딩 값으로 대체되고, 제2 네트워크는 새로운 의료용 이미지에 대한 새로운 임베딩 값을 획득하며, 로지스틱 회기 분석 알고리즘은 임베딩 값 및 새로운 임베딩 값을 기초로 이진 분류할 수 있다. 또한, CNN 모델링 모듈(120)는 임베딩 값을 새로운 임베딩 값을 기초로 수정할 수 있다. In addition, the first learning algorithm includes a Siamese Network algorithm and a Logistic regression analysis algorithm, where the Siamese network includes a first network and a second network, and the first network is calculated using the embedding value. is replaced, the second network obtains a new embedding value for the new medical image, and the logistic regression analysis algorithm can perform binary classification based on the embedding value and the new embedding value. Additionally, the CNN modeling module 120 may modify the embedding value based on the new embedding value.

평가 모듈(130)은 학습된 결과의 성능을 평가하기 위하여 테스트 이미지를 활용할 수 있다. 발병 여부가 미리 알려진 테스트 이미지를 이미지 분류 모듈(100)에 입력하고, 평가 모듈(130)은 결과값에 대한 정확도를 획득할 수 있다. 학습된 결과 및 획득된 정확도는 데이터 저장부(240)에 전달되고 저장될 수 있다. 평가 모듈(130)은 테스트 이미지를 이용하여 상기 학습의 결과를 검증할 수 있다. The evaluation module 130 may utilize a test image to evaluate the performance of the learned result. A test image for which the disease condition is known in advance is input to the image classification module 100, and the evaluation module 130 can obtain accuracy of the result. The learned results and the obtained accuracy may be transferred to and stored in the data storage unit 240. The evaluation module 130 can verify the results of the learning using a test image.

도 4에 따르면, 본 발명에 따른 검증 모듈(200)은 자동화 모듈(210), 이벤트 모듈(220) 및 결과 모듈(230)을 포함할 수 있다. 또한, 본 발명에 따른 검증 모듈(200)은 데이터 저장부(240)를 더 포함하거나, 데이터 저장부(240)에 결과값을 전달하여 저장할 수 있다. According to FIG. 4, the verification module 200 according to the present invention may include an automation module 210, an event module 220, and a result module 230. In addition, the verification module 200 according to the present invention may further include a data storage unit 240, or the result value may be transmitted to the data storage unit 240 and stored.

자동화 모듈(210)은 비정형 데이터(Unstructured Date)인 의료용 이미지(또는 안구 이미지) 및 정형 데이터(Structured Date)인 라벨링 데이터를 수신할 수 있다. 즉, 비정형 데이터 및 정형 데이터는 자동으로 자동화 모듈(210)에 입력될 수 있다. 자동화 모듈(210)은 비정형 데이터 및 정형 데이터를 매칭하고 이를 이벤트 모듈(220)로 전달할 수 있다. The automation module 210 may receive medical images (or eye images) that are unstructured data (Unstructured Date) and labeling data that are structured data (Structured Date). That is, unstructured data and structured data can be automatically input into the automation module 210. The automation module 210 can match unstructured data and structured data and transmit it to the event module 220.

이벤트 모듈(220)에 대상 이미지가 입력될 수 있다. 이벤트 모듈(220)은 대상 이미지에 대한 임베딩 값들을 추출하고, 추출한 임베딩 값들을 기초로 이진 분류할 수 있다. 일 예로, 이벤트 모듈(220)은 추출한 임베딩 값들을 기초로 거리를 추출하고, 대상 이미지가 치매 환자의 안구 이미지라고 도출되면 1로 분류(True로 분류)할 수 있다. 또한, 이벤트 모듈(220)은 추출한 임베딩 값들을 기초로 거리를 추출하고, 대상 이미지가 치매 환자의 안구 이미지가 아니라고 도출되면 0으로 분류(False로 분류)할 수 있다. A target image may be input to the event module 220. The event module 220 may extract embedding values for the target image and perform binary classification based on the extracted embedding values. As an example, the event module 220 may extract a distance based on the extracted embedding values, and classify it as 1 (classify it as True) if the target image is determined to be an eye image of a dementia patient. Additionally, the event module 220 may extract a distance based on the extracted embedding values, and classify it as 0 (classify it as False) if it is determined that the target image is not an eye image of a dementia patient.

결과 모듈(230)은 1로 분류된 결과값을 수신하고 이를 데이터 저장부(240)에 전달할 수 있다. 0으로 분류된 경우, 검증 모듈(200)은 그 결과에 대한 메시지를 전송할 수 있다. The result module 230 may receive a result value classified as 1 and transmit it to the data storage unit 240. If classified as 0, the verification module 200 may transmit a message about the result.

도 4에 따르면, 본 발명에 따른 학습 방법을 검증하는 검증 모듈은, 데이터 입력 모듈, 이벤트 모듈 및 결과 모듈을 포함할 수 있다. 데이터 입력 모듈은 비구조화 데이터 및 구조화 데이터가 입력될 수 있다. 즉, 데이터 입력 모듈은 안저 카메라를 포함하므로 상술한 의료용 이미지가 입력될 수 있고, 컴퓨팅 장치를 포함하므로 상술한 CSV 파일이 입력될 수 있다. According to Figure 4, the verification module that verifies the learning method according to the present invention may include a data input module, an event module, and a result module. The data input module can input unstructured data and structured data. That is, since the data input module includes a fundus camera, the above-mentioned medical images can be input, and since the data input module includes a computing device, the above-described CSV file can be input.

도 5는 본 발명에 따른 CNN 네트워크 알고리즘을 나타낸 도면이고, 도 6는 본 발명에 따른 CNN 필터를 나타낸 도면이며, 도 7은 본 발명에 따른 샴 네트워크 알고리즘을 나타낸 도면이다. Figure 5 is a diagram showing a CNN network algorithm according to the present invention, Figure 6 is a diagram showing a CNN filter according to the present invention, and Figure 7 is a diagram showing a Siamese network algorithm according to the present invention.

도 5 및 도 6에 따르면, CNN(Convolutional Neural Network) 알고리즘은 이미지 처리 분야에 광범위하게 이용되고 있는 기법이며 행렬로 표현된 필터의 각 요소가 데이터 처리에 적합하도록 자동학습을 지원할 수 있다. 또한, 도 6에 따르면, 필터의 종류와 기능이 나타나 있다. According to Figures 5 and 6, the CNN (Convolutional Neural Network) algorithm is a widely used technique in the image processing field and can support automatic learning so that each element of the filter expressed as a matrix is suitable for data processing. Additionally, according to Figure 6, the types and functions of filters are shown.

즉, CNN 알고리즘은 복수의 레이어를 사용하는 학습 알고리즘일 수 있다. 또한, CNN 알고리즘은 이미지 분류 정확도를 최대화하는 필터를 자동으로 학습할 수 있으며, 합성곱 계층과 폴링 계층이라고 하는 새로운 층을 풀리 커넥티드 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미지에 대해 분류 연산을 수행할 수 있다. In other words, the CNN algorithm may be a learning algorithm that uses multiple layers. In addition, the CNN algorithm can automatically learn filters that maximize image classification accuracy, and by adding new layers called convolutional layers and polling layers before the fully connected layer, the filtered image is obtained after applying the filtering technique to the original image. A classification operation can be performed on .

도 5에 따르면, CNN 알고리즘은 합성곱 계층 (convolutional layer)과 풀링 계층 (pooling layer)이라고 하는 새로운 층을 fully-connected 계층 이전에 추가함으로써 원본 이미지에 필터링 기법을 적용한 뒤에 필터링된 이미에 대해 분류 연산이 수행되도록 구성될 수 있다. According to Figure 5, the CNN algorithm applies a filtering technique to the original image by adding a new layer called a convolutional layer and a pooling layer before the fully-connected layer, and then performs a classification operation on the filtered image. It can be configured to perform this.

이때, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 1과 같다. At this time, the calculation formula for the image filter using the CNN algorithm is as shown in Equation 1 below.

[수학식 1][Equation 1]

(단, : 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, (step, : Pixels in the ith row and jth column of the filtered image expressed as a matrix,

: 필터, : filter,

: 이미지, : image,

: 필터의 높이 (행의 수), : Height of filter (number of rows),

: 필터의 너비 (열의 수)) : Width of filter (number of columns))

도 7에 따르면, 샴 네트워크 알고리즘은 2개의 입력에 대하여 독립적으로 2개의 CNN 알고리즘을 실행하기 위한 알고리즘일 수 있다. 샴 네트워크 알고리즘은 2개의 CNN 알고리즘을 각각 실행하고, 그 결과값을 비교할 수 있다. 샴 네트워크 알고리즘은 결과값으로 각각의 피처맵 또는 임베딩 값을 획득하고 각각의 결과의 거리값을 획득할 수 있다. 즉, 샴 네트워크는 제1 네트워크 및 제2 네트워크를 포함할 수 있다. According to FIG. 7, the Siamese network algorithm may be an algorithm for independently executing two CNN algorithms on two inputs. The Siamese network algorithm can run two CNN algorithms separately and compare the results. The Siamese network algorithm can obtain each feature map or embedding value as a result and obtain the distance value of each result. That is, the Siamese network may include a first network and a second network.

이때, 거리값은 하기의 수학식 2와 같이 표시될 수 있다. At this time, the distance value can be expressed as Equation 2 below.

[수학식 2][Equation 2]

(단, 거리d는 x(1)과 x(2)에 대한 벡터(Vector) 사이의 노름(Norm)으로 정의됨)(However, the distance d is defined as the norm between the vectors for x(1) and x(2))

다시말해, 샴 네트워크의 2개의 CNN 알고리즘에 2개의 사진을 입력으로 넣고 인코딩을 할 수 있으며, 이때, 2개의 사진의 거리값이 미리 정해진 거리값보다 작다면 2개의 안구 이미지는 동일한 특징을 가지고 있다고 볼 수 있다. 즉, 1개의 안구 이미지가 1로 라벨링되고(즉, 치매 환자에 해당), 다른 안구 이미지와 상술한 1로 라벨링된 안구 이미지 사이의 거리가 미리 정해진 거리값보다 작다면, 다른 안구 이미지 역시 치매 환자의 안구라고 해석될 수 있다. 해당 조건을 만족할 수 있도록, 계속적인 학습이 필요하다. In other words, two photos can be entered as input into the two CNN algorithms of the Siamese network and encoded. At this time, if the distance value of the two photos is less than the predetermined distance value, the two eye images have the same features. can see. In other words, if one eye image is labeled as 1 (i.e., corresponds to a dementia patient), and the distance between another eye image and the eye image labeled as 1 described above is less than a predetermined distance value, the other eye image also corresponds to a dementia patient. It can be interpreted as the eyeball of. To satisfy the conditions, continuous learning is necessary.

바람직하게는, 본 발명의 제1 학습 알고리즘은 샴 네트워크(Siamese Network) 알고리즘 및 로지스틱 회기 분석(Logistic regression analysis) 알고리즘을 포함할 수 있다. 이때, 샴 네트워크의 제1 네트워크는 상기 임베딩 값으로 대체될 수 있다. 즉, 제1 네트워크는 CNN 알고리즘을 실행하는 것이 아니라, 미리 추출된 특징들에 관한 임베딩 값으로 대체될 수 있다. 샴 네트워크의 경우 2가지의 알고리즘이 수행되어야 하므로 리소스 소모가 크지만, 1개의 네트워크가 실행되지 않고 미리 추출된 특징들에 관한 임베딩 값으로 대체된 경우에는 리소스 소모를 절반 가까이 줄일 수 있는 효과가 있다. Preferably, the first learning algorithm of the present invention may include a Siamese Network algorithm and a Logistic regression analysis algorithm. At this time, the first network of the Siamese network can be replaced with the embedding value. That is, the first network does not execute the CNN algorithm, but can be replaced with embedding values for pre-extracted features. In the case of Siamese networks, resource consumption is high because two algorithms must be performed, but if one network is not executed and is replaced with embedding values for pre-extracted features, resource consumption can be reduced by nearly half. .

샴 네트워크의 제2 네트워크는 새로운 의료용 이미지에 대한 새로운 임베딩 값을 획득할 수 있다. The second network of the Siamese network can obtain a new embedding value for a new medical image.

또한, 로지스틱 회기 분석 알고리즘은 임베딩 값 및 새로운 임베딩 값을 기초로 새로운 의료용 이미지를 1과 0의 이진 분류할 수 있다. 또한, 상기 임베딩 값은 상기 새로운 임베딩 값을 기초로 지속적으로 수정되는 값일 수 있다. Additionally, the logistic regression analysis algorithm can binary classify new medical images into 1 and 0 based on the embedding value and the new embedding value. Additionally, the embedding value may be a value that is continuously modified based on the new embedding value.

바람직하게는, CNN 알고리즘을 사용한 이미지 필터에 대한 연산식은 아래의 수학식 3과 같다. Preferably, the calculation equation for the image filter using the CNN algorithm is as shown in Equation 3 below.

[수학식 3][Equation 3]

(단, : 행렬로 표현된 필터링된 이미지의 i번째 행, j번째 열의 픽셀, (step, : Pixel of the ith row and jth column of the filtered image expressed as a matrix,

: 응용 필터 : Application filter

: 이미지, : image,

: 응용 필터의 높이 (행의 수), : height of application filter (number of rows),

: 응용 필터의 너비 (열의 수)이다. : Width (number of columns) of the application filter.

: 환자 나이 계수) : patient age coefficient)

바람직하게는, 는 응용 필터로서 환자 나이가 제1 나이보다 작은 경우에는 종래 CNN 필터를 그대로 사용할 수 있고, 환자 나이가 제1 나이보다 크거나 같은 경우에는 종래 CNN 필터에 환자 나이 계수 를 곱한 값을 사용할 수 있다. 이때, 는 아래의 수학식 4에 의하여 연산될 수 있다.Preferably, is an application filter. If the patient's age is less than the first age, the conventional CNN filter can be used as is, and if the patient's age is greater than or equal to the first age, the patient age coefficient can be added to the conventional CNN filter. You can use the value multiplied by . At this time, Can be calculated by Equation 4 below.

[수학식 4] [Equation 4]

바람직하게는, 제1 나이는 통계석으로 안구의 신체적 노화가 발생하는 나이로서, 남자와 여자가 다를 수 있다. 이때, 환자 나이 계수는 안구 이미지의 촬영 대상인 환자의 나이에 따른 계수로서, 환자의 나이에 따라 변화하는 계수를 의미할 수 있다. 환자 나이 계수 를 구하는 연산식은 아래의 수학식 5와 같다. (다만, 본 발명에서의 환자 나이는 한국식 나이가 아니라 "만 나이"이다.)Preferably, the first age is the age at which physical aging of the eye occurs according to statistics, and may be different for men and women. At this time, the patient age coefficient is a coefficient according to the age of the patient who is the subject of the eye image, and may mean a coefficient that changes depending on the patient's age. patient age coefficient The calculation formula for calculating is the same as Equation 5 below. (However, in the present invention, the patient's age is "full age", not Korean age.)

[수학식 5][Equation 5]

바람직하게는, 본 발명에서 제1 나이는 남자의 경우 x세이고 여자의 경우 x+3세일 수 있다. 복수의 테스트 결과, x는 40일 때, 성능평가가 가장 우수하였다. 즉, 환자의 노화가 진행될수록 안구의 혈관이나 신경의 굵기가 얇아질 수 있어, 성능이 향상되는 성능평가의 결론을 해석하면, 약간의 필터 보정이 안구 이미지 학습의 정확도를 높일 수 있다고 해석될 수 있다. Preferably, in the present invention, the first age may be x years for men and x+3 years for women. As a result of multiple tests, the performance evaluation was the best when x was 40. In other words, as the patient ages, the thickness of the blood vessels or nerves in the eye may become thinner, so if we interpret the conclusion of the performance evaluation that performance improves, it can be interpreted that a little filter correction can increase the accuracy of eye image learning. there is.

바람직하게는, 본 발명에서 제2 나이는 제1 나이보다 높을 수 있다. 제2 나이는 남자의 경우 y세이고 여자의 경우 y+3세일 수 있다. 복수의 테스트 결과, y는 60일 때, 성능평가가 가장 우수하였다. 즉, 환자의 노화가 급격히 진행될수록, 노화속도에 따른 환자 나이 계수의 변화가 필요하고, 이를 통하여 안구 이미지 학습의 정확도가 높아질 수 있다고 해석될 수 있다. Preferably, in the present invention, the second age may be higher than the first age. The second age may be y years for men and y+3 years for women. As a result of multiple tests, the performance evaluation was the best when y was 60. In other words, it can be interpreted that as the patient's aging progresses rapidly, the patient's age coefficient needs to change according to the aging rate, and through this, the accuracy of eye image learning can be increased.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 모델링하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽힐 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 모델링되는 것도 포함한다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 명세서의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 명세서의 등가적 범위 내에서의 모든 변경은 본 명세서의 범위에 포함된다.The above-described present invention can be modeled as computer-readable code on a program-recorded medium. Computer-readable media includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. and also includes those modeled in the form of carrier waves (e.g., transmission over the Internet). Accordingly, the above detailed description should not be construed as restrictive in all respects and should be considered illustrative. The scope of this specification should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of this specification are included in the scope of this specification.

앞에서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 서로 배타적이거나 구별되는 것은 아니다. 앞서 설명된 본 발명의 어떤 실시 예들 또는 다른 실시 예들은 각각의 구성 또는 기능이 병용되거나 조합될 수 있다.Any or other embodiments of the present invention described above are not exclusive or distinct from each other. In certain embodiments or other embodiments of the present invention described above, each configuration or function may be used in combination or combined.

상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above detailed description should not be construed as restrictive in any respect and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 이미지 분류 모듈
200: 검증 모듈
100: Image classification module
200: Verification module

Claims (8)

프로세서를 포함하는 컴퓨터 시스템에 의해 동작하는, 치매 판단을 위한 의료용 이미지 학습 방법에 있어서,
상기 프로세서에 의해, 치매 여부 판단을 위한 의료용 이미지 및 라벨링 데이터를 기초로 제1 데이터를 생성하는 단계;
상기 프로세서에 의해, 제1 학습 알고리즘 및 상기 제1 데이터를 활용하여 상기 의료용 이미지를 학습하는 단계; 및
상기 프로세서에 의해, 테스트 이미지를 이용하여 상기 학습의 결과를 검증하는 단계;를 포함하되,
상기 프로세서에 의해, 상기 의료용 이미지는 안저 카메라로 촬영된 안구 이미지이며,
상기 제1 데이터를 생성하는 단계는, 상기 의료용 이미지의 파일명 및 상기 라벨링 데이터를 매칭하여 상기 제1 데이터를 생성하고, 상기 의료용 이미지의 파일명은 이미지 파일이 형성된 시간 정보를 기초로 랜덤으로 생성되며,
상기 의료용 이미지를 학습하는 단계는, 상기 의료용 이미지에 대한 임베딩 값을 생성하고, 상기 임베딩 값 및 상기 제1 데이터를 기초로 상기 의료용 이미지의 특징들을 학습하고,
상기 제1 학습 알고리즘은, CNN(Convolutional Neural Network) 학습 알고리즘에 따른 복수의 레이어를 사용하는 학습 알고리즘으로, 상기 CNN 학습 알고리즘의 CNN 필터에 환자 나이 계수를 적용하고,
상기 제1 학습 알고리즘은 샴 네트워크(Siamese Network) 알고리즘을 포함하고, 상기 샴 네트워크는 제1 CNN 네트워크 및 제2 CNN 네트워크를 포함하고, 상기 제1 CNN 네트워크는 상기 임베딩 값으로 대체되고, 상기 제2 CNN 네트워크는 새로운 의료용 이미지에 대한 새로운 임베딩 값을 획득하며,
상기 샴 네트워크의 상기 제1 CNN 네트워크 및 상기 제2 CNN 네트워크에 2개의 안구 이미지를 각각의 입력으로 넣고 인코딩을 수행하고, 상기 2개의 안구 이미지에 따른 거리값이 미리 정해진 거리값보다 작다면 상기 2개의 안구 이미지는 동일한 특징을 가진다고 판단하여 치매 환자의 안구라고 해석하는 것인, 치매 판단을 위한 의료용 이미지 학습 방법.
In a medical image learning method for determining dementia, operated by a computer system including a processor,
generating, by the processor, first data based on medical images and labeling data for determining dementia;
learning, by the processor, the medical image using a first learning algorithm and the first data; and
Including, by the processor, verifying the results of the learning using a test image,
By the processor, the medical image is an eye image captured with a fundus camera,
In the step of generating the first data, the first data is generated by matching the file name of the medical image and the labeling data, and the file name of the medical image is randomly generated based on information on the time when the image file was formed,
The step of learning the medical image includes generating an embedding value for the medical image, learning features of the medical image based on the embedding value and the first data,
The first learning algorithm is a learning algorithm using a plurality of layers according to a CNN (Convolutional Neural Network) learning algorithm, and applies the patient age coefficient to the CNN filter of the CNN learning algorithm,
The first learning algorithm includes a Siamese Network algorithm, the Siamese network includes a first CNN network and a second CNN network, the first CNN network is replaced with the embedding value, and the second The CNN network obtains new embedding values for new medical images,
Two eye images are input to each of the first CNN network and the second CNN network of the Siamese network and encoding is performed, and if the distance value according to the two eye images is less than a predetermined distance value, the 2 A medical image learning method for dementia judgment that determines that a dog's eye image has the same characteristics and interprets it as the eye of a dementia patient.
삭제delete 제1항에 있어서,
상기 라벨링 데이터는 이진 분류를 위한 데이터를 포함하고,
상기 제1 데이터를 생성하는 단계는,
상기 의료용 이미지의 파일명과 상기 이진 분류를 위한 데이터를 매칭하여 상기 제1 데이터를 생성하는 것인, 치매 판단을 위한 의료용 이미지 학습 방법.
According to paragraph 1,
The labeling data includes data for binary classification,
The step of generating the first data is,
A medical image learning method for determining dementia, wherein the first data is generated by matching the file name of the medical image and the data for the binary classification.
삭제delete 삭제delete 제1항에 있어서,
상기 제1 학습 알고리즘은 로지스틱 회기 분석(Logistic regression analysis) 알고리즘을 포함하되,
상기 로지스틱 회기 분석 알고리즘은,
상기 임베딩 값 및 상기 새로운 임베딩 값을 기초로 이진 분류하는 것인, 치매 판단을 위한 의료용 이미지 학습 방법.
According to paragraph 1,
The first learning algorithm includes a logistic regression analysis algorithm,
The logistic regression analysis algorithm is,
A medical image learning method for determining dementia, which performs binary classification based on the embedding value and the new embedding value.
제6항에 있어서,
상기 임베딩 값은 상기 새로운 임베딩 값을 기초로 수정되는 것인, 치매 판단을 위한 의료용 이미지 학습 방법.
According to clause 6,
A medical image learning method for determining dementia, wherein the embedding value is modified based on the new embedding value.
명령어들을 저장하는 비일시적 컴퓨터 판독가능 매체로서,
상기 명령어들은 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 제1항, 제3항, 제6항, 또는 제7항 중 어느 한 항의 방법을 수행하게 하는, 비일시적 컴퓨터 판독가능 매체.
A non-transitory computer-readable medium storing instructions, comprising:
The instructions, when executed by a processor, cause the processor to perform the method of claim 1, 3, 6, or 7.
KR1020200182190A 2020-12-23 2020-12-23 Method of learning medical image for dementia decision KR102585321B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200182190A KR102585321B1 (en) 2020-12-23 2020-12-23 Method of learning medical image for dementia decision

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200182190A KR102585321B1 (en) 2020-12-23 2020-12-23 Method of learning medical image for dementia decision

Publications (2)

Publication Number Publication Date
KR20220091667A KR20220091667A (en) 2022-07-01
KR102585321B1 true KR102585321B1 (en) 2023-10-05

Family

ID=82397185

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200182190A KR102585321B1 (en) 2020-12-23 2020-12-23 Method of learning medical image for dementia decision

Country Status (1)

Country Link
KR (1) KR102585321B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019146935A (en) * 2018-02-28 2019-09-05 富士フイルム株式会社 Learning data creation support apparatus, learning data creation support method, and learning data creation support program
KR102058884B1 (en) * 2019-04-11 2019-12-24 주식회사 홍복 Method of analyzing iris image for diagnosing dementia in artificial intelligence

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101880678B1 (en) * 2016-10-12 2018-07-20 (주)헬스허브 System for interpreting medical images through machine learnings
KR102410443B1 (en) 2018-12-01 2022-06-17 주식회사 메타젠바이오 Deep learning based dementia prediction method
KR102281968B1 (en) * 2019-01-14 2021-07-27 주식회사 에이아이인사이트 Deep learning architecture system for automatic interpretation of fundus image and method for automatic interpretation of fundus image thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019146935A (en) * 2018-02-28 2019-09-05 富士フイルム株式会社 Learning data creation support apparatus, learning data creation support method, and learning data creation support program
KR102058884B1 (en) * 2019-04-11 2019-12-24 주식회사 홍복 Method of analyzing iris image for diagnosing dementia in artificial intelligence

Also Published As

Publication number Publication date
KR20220091667A (en) 2022-07-01

Similar Documents

Publication Publication Date Title
Sharma et al. A deep learning based convolutional neural network model with VGG16 feature extractor for the detection of Alzheimer Disease using MRI scans
Baytas et al. Patient subtyping via time-aware LSTM networks
Kamal et al. Alzheimer’s patient analysis using image and gene expression data and explainable-AI to present associated genes
Khan et al. [Retracted] Deep Learning for Ocular Disease Recognition: An Inner‐Class Balance
Lourenço et al. Deep learning for interictal epileptiform discharge detection from scalp EEG recordings
Saleh et al. Transfer learning‐based platform for detecting multi‐classification retinal disorders using optical coherence tomography images
Vaishnavi et al. An efficient adaptive histogram based segmentation and extraction model for the classification of severities on diabetic retinopathy
Paul et al. Deep learning and its importance for early signature of neuronal disorders
Ayoub et al. Minimized Computations of Deep Learning Technique for Early Diagnosis of Diabetic Retinopathy Using IoT‐Based Medical Devices
Birajdar et al. Detection and classification of diabetic retinopathy using AlexNet architecture of convolutional neural networks
Asirvatham et al. Hybrid deep learning network to classify eye diseases
KR102585321B1 (en) Method of learning medical image for dementia decision
Khan et al. Computational approach for detection of diabetes from ocular scans
CN112132782B (en) Method and terminal for processing DME (DME) typing based on deep neural network
Nandhini et al. An automated detection and multi-stage classification of diabetic retinopathy using convolutional neural networks
Maram et al. A framework for glaucoma diagnosis prediction using retinal thickness using machine learning
CN114224348A (en) Combined neural network electrocardiogram classification method and system
Hasan et al. Diagnosis of tobacco addiction using medical signal: An EEG-based time-frequency domain analysis using machine learning
Ulhaq et al. Epilepsy seizures classification with EEG signals: A machine learning approach
JP2023500511A (en) Combining Model Outputs with Combined Model Outputs
Devi et al. A Hybrid Approach to detect and characterize Alzheimer’s Disease using Robust PCA and Random Forest Algorithm
KR20200094815A (en) Ensemble network-based data learning method and person identification method
Hasan et al. Electroencephalogram based medical biometrics using machine learning: assessment of different color stimuli
CN114926460B (en) Training method of fundus image classification model, and fundus image classification method and system
Kumar et al. Automatic Identification of Cataract by Analyzing Fundus Images Using VGG19 Model

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant