KR101848321B1 - 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치 - Google Patents

피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치 Download PDF

Info

Publication number
KR101848321B1
KR101848321B1 KR1020170141129A KR20170141129A KR101848321B1 KR 101848321 B1 KR101848321 B1 KR 101848321B1 KR 1020170141129 A KR1020170141129 A KR 1020170141129A KR 20170141129 A KR20170141129 A KR 20170141129A KR 101848321 B1 KR101848321 B1 KR 101848321B1
Authority
KR
South Korea
Prior art keywords
information
region
image
attribute information
machine learning
Prior art date
Application number
KR1020170141129A
Other languages
English (en)
Inventor
박상준
신주영
손재민
김상근
정규환
김현준
Original Assignee
주식회사 뷰노
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 뷰노, 서울대학교병원 filed Critical 주식회사 뷰노
Priority to KR1020170141129A priority Critical patent/KR101848321B1/ko
Application granted granted Critical
Publication of KR101848321B1 publication Critical patent/KR101848321B1/ko
Priority to US16/759,594 priority patent/US11771318B2/en
Priority to JP2020523359A priority patent/JP7178672B6/ja
Priority to PCT/KR2018/008099 priority patent/WO2019083129A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • G06N99/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

본 발명은 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 컴퓨팅 장치에 관한 것이다. 구체적으로, 본 발명에 따른 컴퓨팅 장치는, 상기 피검체의 안저 영상을 획득하고, 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하며, 추출된 상기 속성 정보를 외부 엔티티(entity)에 제공한다. 또한, 본 발명에 따른 컴퓨팅 장치는, 상기 추출된 속성 정보에 관한 평가 정보 또는 속성 정보의 수정 정보가 획득되면, 이에 기초하여 상기 기계 학습 모델을 갱신할 수도 있다.

Description

피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치{METHOD FOR FACILITATING DIGNOSIS OF SUBJECT BASED ON FOVEA IMAGE THEREOF AND APPARATUS USING THE SAME}
본 발명은 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 컴퓨팅 장치에 관한 것이다. 구체적으로, 본 발명에 따른 컴퓨팅 장치는, 상기 피검체의 안저 영상을 획득하고, 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하며, 추출된 상기 속성 정보를 외부 엔티티(entity)에 제공한다. 또한, 본 발명에 따른 컴퓨팅 장치는, 상기 추출된 속성 정보에 관한 평가 정보 또는 속성 정보의 수정 정보가 획득되면, 이에 기초하여 상기 기계 학습 모델을 갱신할 수도 있다.
안저 영상은 망막, 시신경, 황반부의 이상을 관찰할 수 있어 안과에서 판독용으로 빈번히 활용된다. 그런데, 안저 영상의 판독을 위하여 제공되던 종래의 레이블링(labeling) 시스템은 다음 몇 가지 측면에서 효율적 혹은 효과적이지 않았다.
우선, 종래의 레이블링 시스템은 선택 문항 간의 논리적 관계를 고려하지 않아 불필요하거나 비합리적인 레이블링을 하는 경우가 있었다. 구체적으로, 질병 간의 배타적인 관계가 고려되지 않아 병리학적으로 불가능한 레이블링을 허용하는 경우가 있었다.
또한, 종래의 레이블링 시스템은 소견(finding)과 진단(diagnosis)을 혼용하여 효율적인 데이터 관리가 어려웠고, 소견에 대응되는 위치를 표시하기 위한 구획 설정이 안구의 구조적 특성을 반영하지 않은 단점이 있었다.
따라서 본 발명에서는 이러한 문제점들을 해결하고 의료진으로 하여금 보다 효율적이고 정확하게 안저 영상에 대한 레이블링이 가능하도록 지원하는 안저 영상의 판독 지원 방법 및 이를 이용한 장치를 제안하고자 한다.
비특허문헌 1: Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks" 비특허문헌 2: Ronneberger O., Fischer P., Brox T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab N., Hornegger J., Wells W., Frangi A. (eds) Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015. Lecture Notes in Computer Science, vol 9351. Springer, Cham
본 발명은 인공지능을 이용하여 해부학적 특성을 반영하여 구획되는 영역들을 제공함으로써 안저 영상 판독의 편의를 제공하는 것을 목적으로 한다.
또한, 본 발명은 논리적으로 적절한 문항들만을 선별하여 레이블링 시스템에 포함시킴으로써 질병의 배타적 관계를 레이블링 문항에 반영할 뿐만 아니라, 소견과 진단을 서로 구분하여 효율적으로 데이터가 정리될 수 있게 하는 것을 목적으로 한다.
그리고 본 발명은 주요 소견들의 위치적 특성과 안구의 구조적 특성을 고려한 구획 설정, 특히 황반과 시신경 유두의 위치를 자동으로 탐지하여 구획 분할을 용이하게 하는 것을 목적으로 한다.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 효과를 실현하기 위한 본 발명의 특징적인 구성은 하기와 같다.
본 발명의 일 태양에 따르면, 피검체에 대한 안저 영상의 판독을 지원하는 방법이 제공되는바, 그 방법은, (a) 컴퓨팅 장치가, 상기 피검체의 안저 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계; (b) 상기 컴퓨팅 장치가, 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델(machine learning model)에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하거나 상기 타 장치로 하여금 추출하도록 지원하는 단계; 및 (c) 상기 컴퓨팅 장치가, 추출된 상기 속성 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계를 포함한다.
바람직하게는, 상기 방법은, (d) 상기 추출된 속성 정보에 관하여 평가한 평가 정보 또는 상기 추출된 속성 정보를 임의로 수정한 수정 정보가 획득되면, 상기 컴퓨팅 장치가, 상기 평가 정보 또는 상기 수정 정보에 기초하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계를 더 포함할 수 있다.
본 발명의 다른 태양에 따르면, 본 발명에 따른 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램도 제공된다.
본 발명의 또 다른 태양에 따르면, 피검체에 대한 안저 영상의 판독을 지원하는 컴퓨팅 장치가 제공되는바, 그 컴퓨팅 장치는, 상기 피검체의 안저 영상을 획득하는 통신부; 상기 통신부를 통하여 획득된 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델(machine learning model)에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하거나 상기 통신부를 통하여 상기 타 장치로 하여금 추출하도록 지원하는 프로세서를 포함하되, 상기 프로세서는, 추출된 상기 속성 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원한다.
바람직하게는, 상기 추출된 속성 정보에 관하여 평가한 평가 정보 또는 상기 추출된 속성 정보를 임의로 수정한 수정 정보가 상기 통신부를 통하여 획득되면, 상기 프로세서는, 상기 평가 정보 또는 상기 수정 정보에 기초하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원할 수 있다.
본 발명에 의하면, 종래의 안저 영상 레이블링 방식에서와 같은 논리적, 병리학적으로 불필요하거나 비합리적인 판독을 방지할 수 있고, 안구의 구조적 특성을 고려한 구획 설정으로 인하여 소견에 대응되는 위치를 효과적으로 표시할 수 있는 효과가 있다.
또한, 본 발명에 의하면, 효율적인 데이터의 정리가 가능하여 인공지능 학습 모델을 위한 데이터 취득에 용이하며, 사전에 학습된 정보를 통하여 판독에 용이하게 이용될 수 있는 초기의 속성 정보, 예컨대, 양안 구분 정보, 황반 및 시신경 유두의 위치 정보, 혈관 정보, C/D 비(cup-to-disk ratio)의 정보 등이 제공될 수 있는 효과가 있다.
이에 따라, 본 발명에는 논리적, 병리학적으로 불가능한 판독을 시스템에서 걸러내도록 하여, 의료진이 실수할 수 있는 여지를 제거하는 효과가 있으며, 사용자의 사용 경험이 축적될수록 학습 모델이 지속적으로 갱신됨으로써 정확도가 높여질 수 있는 장점이 있다.
요컨대, 효율적이고 정확한 판독을 가능하게 함으로써 의료진의 시간을 절약하고 진료의 질을 높이고 의료 현장에서의 워크플로(workflow)를 혁신할 수 있는 효과가 있다.
그리고 본 발명에 의하면, 종래에 병원에서 이용하고 있는 안저 촬영 영상, 예컨대 안저 촬영 기기 및 의료영상저장전송시스템(PACS)에서 획득된 영상을 그대로 활용할 수 있는바, 본 발명의 방법은 컴퓨터 운영체제에 종속되지 않는다.
본 발명의 실시예의 설명에 이용되기 위하여 첨부된 아래 도면들은 본 발명의 실시예들 중 단지 일부일 뿐이며, 본 발명이 속한 기술분야에서 통상의 지식을 가진 사람(이하 “통상의 기술자”라 함)에게 있어서는 발명적 작업이 이루어짐 없이 이 도면들에 기초하여 다른 도면들이 얻어질 수 있다.
도 1은 본 발명에 이용될 수 있는 기계 학습 모델의 일 예시로서 CNN(convolutional neural network; 합성 신경망)의 주요 개념을 도시한 도면이다.
도 2는 본 발명에 따라 피검체에 대한 안저 영상의 판독을 지원하는 방법(이하 "안저 영상 판독 지원 방법"이라 함)을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 3은 본 발명에 따른 안저 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 4는 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 혈관의 영상만을 분리하여 나타낸 혈관 정보를 예시적으로 나타낸 도면이다.
도 5는 시신경 유두 및 황반 중심의 위치를 검출하는 종래의 방식을 설명하기 위하여 나타낸 도면이다.
도 6은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 시신경 유두 및 황반 중심의 위치를 검출하기 위한 기계 학습 모델을 예시하는 도면이다.
도 7은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 추출되는 안저 영상의 구획을 나타내는 구획 구분 정보를 예시적으로 나타낸 도면이다.
도 8은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예를 예시적으로 나타낸 흐름도이다.
도 9는 본 발명에 따른 안저 영상 판독 지원 방법의 다른 실시예를 예시적으로 나타낸 흐름도이다.
도 10a 내지 10e는 도 9에 예시된 실시예의 각 단계에서 제공되는 사용자 인터페이스(UI; user interface)를 예시적으로 나타낸 도면들이다.
도 11은 도 9에 예시된 실시예에서 소견 정보로부터 진단 정보를 생성하는 방식의 하나로서 베이지안 네트워크를 나타낸 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명의 목적들, 기술적 해법들 및 장점들을 분명하게 하기 위하여 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 통상의 기술자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐 '학습' 혹은 '러닝'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어인바, 인간의 교육 활동과 같은 정신적 작용을 지칭하도록 의도된 것이 아님을 통상의 기술자는 이해할 수 있을 것이다.
그리고 본 발명의 상세한 설명 및 청구항들에 걸쳐, '포함하다'라는 단어 및 그 변형은 다른 기술적 특징들, 부가물들, 구성요소들 또는 단계들을 제외하는 것으로 의도된 것이 아니다. 통상의 기술자에게 본 발명의 다른 목적들, 장점들 및 특성들이 일부는 본 설명서로부터, 그리고 일부는 본 발명의 실시로부터 드러날 것이다. 아래의 예시 및 도면은 실례로서 제공되며, 본 발명을 한정하는 것으로 의도된 것이 아니다.
더욱이 본 발명은 본 명세서에 표시된 실시예들의 모든 가능한 조합들을 망라한다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 사상 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 사상 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
본 명세서에서 달리 표시되거나 분명히 문맥에 모순되지 않는 한, 단수로 지칭된 항목은, 그 문맥에서 달리 요구되지 않는 한, 복수의 것을 아우른다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.
이하, 통상의 기술자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
도 1은 본 발명에 이용되는 기계 학습 모델의 일 예시로서 CNN의 주요 개념을 도시한 도면이다.
도 1을 참조하면 본 발명에서 이용되는 기계 학습(machine learning) 모델 중 깊은 신경망 모델은 인공 신경망을 다층으로 쌓은 형태로 간략하게 설명할 수 있다. 즉, 깊은 구조의 네트워크라는 의미로 깊은 신경망 혹은 딥 신경망(deep neural network)이라고 표현하며, 도 1에 도시된 바와 같이, 다층의 네트워크로 이루어진 구조에서 다량의 데이터를 학습시킴으로써 각각의 생체 신호의 특징, 생체 신호 간의 관계를 자동으로 학습하고, 이를 통해 목적 함수, 즉 치명적 증상의 예측 정확도의 에러(error)를 최소화시키는 방법으로 네트워크를 학습시켜 나아가는 형태이다. 이는, 일견 인간 두뇌의 신경세포 간의 연결로도 표현이 되는바, 이와 같은 깊은 신경망은 인공지능의 차세대 모델로 자리잡아 가고 있다.
다음으로, 도 2는 본 발명에 따른 안저 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 예시적 구성을 개략적으로 도시한 개념도이다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 컴퓨팅 장치(200)는, 통신부(210) 및 프로세서(220)를 포함하며, 상기 통신부(210)를 통하여 외부 컴퓨팅 장치(미도시)와 직간접적으로 통신할 수 있다.
구체적으로, 상기 컴퓨팅 장치(200)는, 전형적인 컴퓨터 하드웨어(예컨대, 컴퓨터 프로세서, 메모리, 스토리지, 입력 장치 및 출력 장치, 기타 기존의 컴퓨팅 장치의 구성요소들을 포함할 수 있는 장치; 라우터, 스위치 등과 같은 전자 통신 장치; 네트워크 부착 스토리지(NAS) 및 스토리지 영역 네트워크(SAN)와 같은 전자 정보 스토리지 시스템)와 컴퓨터 소프트웨어(즉, 컴퓨팅 장치로 하여금 특정의 방식으로 기능하게 하는 인스트럭션들)의 조합을 이용하여 원하는 시스템 성능을 달성하는 것일 수 있다.
이와 같은 컴퓨팅 장치의 통신부(210)는 연동되는 타 컴퓨팅 장치와 요청과 응답을 송수신할 수 있는바, 일 예시로서 그러한 요청과 응답은 동일한 TCP 세션에 의하여 이루어질 수 있지만, 이에 한정되지는 않는바, 예컨대 UDP 데이터그램으로서 송수신될 수도 있을 것이다. 덧붙여, 넓은 의미에서 상기 통신부(210)는 명령어 또는 지시 등을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
또한, 컴퓨팅 장치의 프로세서(220)는 MPU(Micro Processing Unit) 또는 CPU(Central Processing Unit), 캐시 메모리(Cache Memory), 데이터 버스(Data Bus) 등의 하드웨어 구성을 포함할 수 있다. 또한, 운영체제, 특정 목적을 수행하는 애플리케이션의 소프트웨어 구성을 더 포함할 수도 있다.
도 3은 본 발명에 따른 안저 영상 판독 지원 방법을 수행하는 컴퓨팅 장치의 하드웨어 및 소프트웨어 아키텍처를 예시적으로 도시한 개념도이다.
도 3을 참조하여 본 발명에 따른 방법 및 장치의 구성을 개관하면, 컴퓨팅 장치(200)는 그 일 구성요소로서 영상 획득 모듈(310)을 포함할 수 있다. 이와 같은 영상 획득 모듈(310)은 상기 컴퓨팅 장치(200)에 포함된 통신부(210), 또는 상기 통신부(210) 및 프로세서(220)의 연동에 의하여 구현될 수 있음은 통상의 기술자가 이해할 수 있을 것이다.
영상 획득 모듈(310)은, 피검체의 안저 영상을 획득할 수 있다. 예를 들어, 이는 상기 피검체의 안저 영상 촬영 기기 또는 의료영상저장전송시스템(PACS)로부터 획득되는 것일 수 있으나, 이에 한정되지는 않는다. 대부분의 안저 영상이 중간 영상이기 때문에 당뇨병 환자의 7-segment montage에도 대응 가능할 수 있다.
다음으로, 그 획득된 안저 영상은 판별 모듈(320)에 전달될 수 있는데, 판별 모듈(320)에서는 기계 학습 모델에 기초하여 안저 영상의 속성 정보를 추출한다.
예컨대, 안저 영상의 속성 정보는, (i) 상기 안저 영상에 포함된 시신경 혈관의 영상만을 분리하여 나타낸 혈관 정보, (ii) 상기 안저 영상이 좌안의 영상인지 우안의 영상인지 여부를 나타내는 양안 구분 정보, (iii) 상기 안저 영상에 포함된 황반 및 시신경 유두 중 적어도 하나의 위치를 나타내는 위치 정보, (iv) 상기 안저 영상의 구획을 나타내는 구획 구분 정보, (v) 상기 안저 영상에 따른 C/D 비(cup-to-disk ratio)의 정보 등을 포함할 수 있다.
첫째, 상기 혈관 정보의 경우에, 판별 모듈의 기계 학습 모델은 합성 신경망 및 GAN(generative adversarial networks)을 포함할 수 있다.
GAN에 관한 논문인 비특허문헌 1: [Goodfellow, Ian J.; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). "Generative Adversarial Networks"]에 따르면, GAN의 생성기는 실제와 유사한 데이터를 생성함으로써 판별기를 속여 그 유사한 데이터를 실제 데이터로 판별하게 하는 것을 목표로 가지며, 판별기는 실제 데이터와 생성된 유사 데이터를 구분해내는 것을 목표로 가진다. 이 GAN에 의한 학습이 진행되는 과정에서 생성기와 판별기는 각각의 목표를 달성하기 위하여 네트워크 가중치를 갱신하는바, 충분한 학습 후에는 생성기가 실제와 유사한 데이터를 생성해내고, 판별기에 의한 판별률이 이론적으로 0.5에 수렴되는 것이 밝혀져 있다. 결과적으로, GAN에 의하여 충분히 학습된 생성기는 실제 데이터와 가까운 데이터를 생성하게 되므로, 기계 학습에 있어서의 데이터 불균형 문제가 해결될 수 있다.
이와 같은 합성 신경망(CNN)과 GAN을 함께 이용하는 방식으로 충분한 반복(iteration)을 거쳐 학습을 진행하면, 이 기계 학습 모델에 기초하여 상기 시신경 혈관의 영상이 추출될 수 있는바, 도 4는 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 혈관의 영상만을 분리하여 나타낸 혈관 정보를 예시적으로 나타낸 도면이다.
둘째, 상기 양안 구분 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며, 상기 기계 학습 모델에 기초하여 상기 안저 영상의 시신경 유두(optic disk)의 형상 및 상기 시신경 유두로부터 나오는 혈과의 주행 중 적어도 하나를 판별함으로써, 상기 시신경 유두의 형상 및 상기 혈관의 주행에 따라 상기 안저 영상의 양안 구분 정보가 추출될 수 있다.
구체적으로, 이 양안 구분 정보의 추출에 있어서, 시신경 유두의 위치만을 가지고는 해당 안저 영상이 좌안의 영상인지 우안의 영상인지 판단이 불가능한 경우가 있을 수 있는바, 이에 대한 판별 정확도를 높이기 위하여 시신경 유두의 위치만을 가지고 판단이 불가능한 경우의 안저 영상을 학습 데이터로 이용하여 상기 기계 학습 모델의 학습을 진행하였다. 오른쪽 눈의 경우에는 안과에서 통상적으로 촬영하는 영상은 그 중앙에 초점이 맞춰지므로 시신경 유두가 오른쪽에 있으나, 학습 데이터에는 오른쪽 눈임에도 불구하고 시신경 유두가 왼쪽 또는 아래쪽에 위치하는 이미지를 포함시킴으로써 양안 구분의 정확도를 높일 수 있다.
안저 영상의 개별 채널(channel)의 z-score(표준화 점수)를 구하여 합성 신경망의 입력으로 이용하는바, z-score는 다음 수학식 1과 같다.
Figure 112017106536092-pat00001
이 z-score를 이용함으로써 안저 영상의 밝기(intensity)나 명암(contrast)에 영향을 받지 않고, 온전히 영상에 나타난 형태 정보를 이용하여 양안을 구분하는 것이 가능하다. 여기에 이용될 수 있는 예시적인 분획 네트워크의 형태는 다음과 같다.
conv(2)-conv-maxpool(2)-conv(2)-conv-conv-maxpool(2)-conv-conv-conv-maxpool(22)-conv-conv-conv-maxpool(2)-conv-conv-dense(256)-dense(1)
여기에서 입력 데이터는 512x512의 z-score로 변환된 RGB 영상이며, conv와 maxpool의 stride는 (x)로 표현되었다. 또한, 여기에서 활성화(activation) 함수는 selu가, 마지막 dense layer에는 sigmoid가 이용되었으며, 손실(loss) 함수로는 binary cross entropy가 이용되었다.
다음으로, 셋째, 상기 위치 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크를 포함하며, 이에 기초하여 상기 황반 및 상기 시신경 유두 중 적어도 하나의 위치가 추출될 수 있다.
도 5는 시신경 유두 및 황반 중심의 위치를 검출하는 종래의 방식을 설명하기 위하여 나타낸 도면인데, 시신경 유두 및 황반은 안저 영상 판독시 기준점의 역할을 하는데, 종래에는 황반의 위치를 OCT(optical coherence tomography) 촬영을 통하여 검출하였으며, 시신경 유두는 안저 영상에서 밝고 선명하게 나오는 부분이라 그 위치의 판정이 비교적 용이하므로, 시신경 유두는 안저 영상으로부터 검출하였다. 이와 같은 종래의 기법과 달리 본 발명에서는 OCT 촬영 영상을 이용하지 않고도 황반과 시신경 유두의 위치 모두 안저 영상으로부터 검출할 수 있다.
도 6은 본 발명에 따른 안저 영상 판독 지원 방법의 일 실시예에서 시신경 유두 및 황반 중심의 위치를 검출하기 위한 기계 학습 모델을 예시하는 도면이다.
구체적으로, 이 시신경 유두 및 황반 중심 위치의 검출에 있어서, 정상 안저 영상뿐만 아니라 병변이 있는 안저 영상에 대해서도 의료 전문가가 레이블링(구체적으로는, 위치 좌표를 찍음)한 데이터를 학습 데이터로 이용하여 상기 기계 학습 모델의 학습을 진행하였는바, 기계 학습 모델의 일 예시로서, 비특허문헌 2: [Ronneberger O., Fischer P., Brox T. (2015) U-Net: Convolutional Networks for Biomedical Image Segmentation. In: Navab N., Hornegger J., Wells W., Frangi A. (eds) Medical Image Computing and Computer-Assisted Intervention - MICCAI 2015. Lecture Notes in Computer Science, vol 9351. Springer, Cham]에 개시된 것과 같이 패딩(padding)의 형태, 층(layer)의 개수, 개별 층의 깊이(depth)를 파라미터로 하는 U-Net에서 이용된 depth concatenation 기법이 활용될 수 있다. 그 구체적인 네트워크의 형태는 도 6에 예시된 바와 같다.
도 6에 예시된 이 네트워크에서는 640x640의 RGB 영상에 대하여 개별 채널마다 z-score를 구하고 분획(segment)된 혈관(vessel)을 입력으로 이용하였으며, batch-normalization이 이용되었으며, 손실 함수로는 binary cross entropy가 이용되었다. 도 6에서 operations는 개별 block의 연산(operation)을 나타내며, skip-connected는 U-Net에 있어서 depth concat layer를 나타내고, upsample은 bilinear interpolation으로 길이와 너비를 각기 2배로 늘린 것을 의미한다.
넷째로, 상기 구획 구분 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크를 포함하며, 이에 기초하여 상기 황반 및 상기 시신경 유두의 위치가 추출됨으로써, 상기 황반의 중심 위치 및 상기 시신경 유두의 중심 위치에 기초하여 상기 안저 영상을 개별 구획들로 구분하는 정보인 상기 구획 구분 정보가 추출될 수 있다. 바람직하게는, 상기 개별 구획들은 3개 이상으로 구성되는바, 의료진의 필요에 따라 다양하게 구성될 수 있을 것이다.
개별 구획들을 구분하는 일 실시예로서, 상기 개별 구획들은, 황반(macula) 영역, 시신경 유두 상측(superior disk) 영역, 시신경 유두 하측(inferior disk) 영역, 외측(temporal) 영역, 상외측(superotemporal) 영역, 하외측(inferotemporal) 영역, 상비측(superonasal) 영역 및 하비측(inferonasal) 영역를 포함할 수 있다.
도 7은 이 실시예에서 추출되는 안저 영상의 구획을 나타내는 구획 구분 정보를 예시적으로 나타낸 도면이다.
도 7을 참조하면, 상기 황반 영역은, 상기 황반의 중심 위치와 상기 시신경 유두의 중심 위치 간의 거리가 d일 때 0<k1≤1를 만족하는 소정의 k1에 대하여 k1*d를 반지름으로 하고 상기 황반의 중심 위치를 중심점으로 하는 황반 중심원의 내부 영역일 수 있다.
또한, 상기 시신경 유두 상측 영역은, 상기 거리 d 및 0<k2≤1를 만족하는 소정의 k2에 대하여 k2*d를 반지름으로 하고 상기 시신경 유두의 중심 위치를 중심점으로 하는 시신경 유두 중심원의 내부 영역인 시신경 유두 영역이 상기 황반의 중심 위치와 상기 시신경 유두의 중심 위치를 통과하는 직선 l1에 의하여 분할되는 영역들 중 상측의 영역일 수 있다.
그리고 상기 시신경 유두 하측 영역은, 상기 시신경 유두 영역이 상기 직선 l1에 의하여 분할되는 영역들 중 하측의 영역일 수 있다.
또한, 상기 상비측 영역은, 상기 직선 l1에 수직으로 상기 시신경 유두의 중심 위치를 통과하는 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반으로부터 먼 상측의 영역에서 상기 시신경 유두 상측 영역을 제외한 영역일 수 있다.
다음으로, 상기 하비측 영역은, 상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반으로부터 먼 하측의 영역에서 상기 시신경 유두 하측 영역을 제외한 영역일 수 있다.
또한, 상기 외측 영역은, 상기 직선 l1에 평행하며 상기 황반 중심원에 접하되 상기 시신경 유두로부터 멀어지는 방향으로 연장되는 2개의 반직선 l3 및 l4과 상기 황반 중심원에 의하여 분할되는 영역들 중 상기 직선 l1을 포함하는 영역에서 상기 황반 영역을 제외한 영역일 수 있다.
상기 상외측 영역은, 상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반에 가까운 상측의 영역에서 상기 시신경 유두 상측 영역, 상기 황반 영역 및 상기 외측 영역을 제외한 영역일 수 있다.
그리고 상기 하외측 영역은, 상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반에 가까운 하측의 영역에서 상기 시신경 유두 하측 영역, 상기 황반 영역 및 상기 외측 영역을 제외한 영역일 수 있다.
바람직하게는, k1=2/3, k2=2/5일 수 있는바, 그 결과는 도 7에 예시적으로 도시된 바와 같다.
다섯째로, 상기 C/D 비(cup-to-disk ratio) 정보의 경우에, 상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며, 이에 기초하여 시신경 유두(optic disk) 및 안배(optic cup)를 식별함으로써 상기 C/D 비가 추출될 수 있다.
안저 판독의 임상에 있어서, 안배(optic cup)는 시신경 유두(optic disk) 안쪽에 혈관이 뇌 쪽으로 연결된 부분을 의미하고, 시신경 다발이 안배와 시신경 유두 사이로 들어가기 때문에, C/D 비가 높으면 시신경 손상을 시사하는바, 이는 녹내장을 의심할 수 있는 하나의 근거가 될 수 있다.
여기에서 이용된 분획 네트워크 모델은, 예를 들어, VGG(Visual Geometry Group) 네트워크 형태의 합성 블록(convolution block)을 적층하고, 그 합성 블록에 완전 연결층(fully-connected layer)을 연결한 모델일 수 있는바, 이를 통하여 녹내장이 높은 정확도로 자동으로 판독할 수 있다(ROC_AUC 0.8617 이상).
전술한 바와 같이 판별 모듈(320)에서 이용되는 기계 학습 모델의 학습은 판별 모듈(320)에서 이루어질 수도 있으며, 별도의 학습 모듈(330)에 의하여 학습될 수도 있다.
기계 학습 모델에 기초하여 개별 안저 영상에 관하여 속성 정보가 추출되면, 그 속성 정보는 저장 및 전송 모듈(340)을 통하여 저장되거나 외부 엔티티(entity)에 제공되거나 컴퓨팅 장치(200)에 연동되는 타 장치(미도시)에 제공될 수 있다.
계속해서 도 3을 참조하면, 상기 추출된 속성 정보에 관하여 평가한 평가 정보 및 추출된 속성 정보를 임의로 수정한 수정 정보를 획득할 수 있는 결과 입력 모듈(350), 및 상기 평가 정보 또는 상기 수정 정보에 기초하여 상기 기계 학습 모델을 갱신할 수 있는 갱신 모듈(360)이 컴퓨팅 장치(200)의 구성요소로서 더 제공될 수 있는바, 이와 같은 모듈들(310 내지 360)은 통신부(210) 및 프로세서(220)에 의하여 구현될 수 있다.
더 구체적으로, 상기 결과 입력 모듈(350)은, 하기에서 설명하는 안저 영상 판독 지원 방법의 제2 실시예에서 소견 입력 모듈(352; 미도시) 및 진단 결과 입력 모듈(354; 미도시)을 더 포함할 수도 있다.
이제 본 발명에 따른 안저 영상 판독 지원 방법의 제1 실시예를 도 8을 참조하여 구체적으로 설명하기로 한다. 도 8은 본 발명의 제1 실시예에 따른 안저 영상 판독 지원 방법을 예시적으로 나타낸 흐름도이다.
도 8을 참조하면, 이 실시예에 따른 안저 영상 판독 지원 방법은, 앞서 도 3에 관하여 설명한 바와 같이, 우선, 컴퓨팅 장치(200)의 통신부(210)에 의하여 구현되는 영상 획득 모듈(310)이, 상기 피검체의 안저 영상을 획득하거나 컴퓨팅 장치(200)에 연동되는 타 장치(미도시)로 하여금 획득하도록 지원하는 단계(S810)를 포함한다.
다음으로, 본 발명의 일 실시예에 따른 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)에 의하여 구현되는 판별 모듈(320)이, 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델(machine learning model)에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하거나 상기 타 장치로 하여금 추출하도록 지원하는 단계(S820)와, 상기 컴퓨팅 장치(200)의 통신부(210) 및 프로세서(220)에 의하여 구현되는 저장 및 전송 모듈(340)이 추출된 상기 속성 정보를 외부 엔티티(entity)에 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계(S830)를 더 포함한다.
여기에서 외부 엔티티라고 함은, 상기 컴퓨팅 장치의 사용자, 관리자, 상기 피검체를 담당하는 담당 의료 전문가 등을 포함하나, 이 이외에도 상기 안저 영상을 판독할 수 있는 주체라면 어느 주체라도 포함되는 것으로 이해되어야 할 것이다.
한편, 이 실시예에 따른 안저 영상 판독 지원 방법의 수행에 앞서, 상기 기계 학습 모델이 미리 학습되는 단계(미도시)를 거쳐야 할 필요가 있는바, 이를 위한 학습 모듈(330)이 상기 프로세서(220)에 의하여 실행될 수 있다.
예컨대, 상기 학습 모듈(330)은 다수의 기존 피검체에 대한 개별 안저 영상 및 이를 레이블링한 데이터를 학습 데이터로서 이용하여 상기 기계 학습 모델을 학습할 수 있다.
이 실시예에서는, 미리 학습된 기계 학습 모델에 기초하여 안저 영상의 판독을 지원할 수 있는바, 추출된 속성 정보를 평가하거나 수정한 정보를 다시 상기 기계 학습 모델에 대한 재학습의 자료로 활용한다면, 상기 기계 학습 모델이 더 정확해질 수 있는 장점이 있으므로, 이러한 장점을 취하기 위하여, 본 발명의 이 실시예에 따른 안저 영상 판독 지원 방법은, 상기 프로세서(220)가, 상기 추출된 속성 정보에 관하여 평가한 평가 정보 또는 상기 추출된 속성 정보를 임의로 수정한 수정 정보를 결과 입력 모듈(350)을 통하여 획득하고, 상기 평가 정보 또는 상기 수정 정보에 기초하여 갱신 모듈(360)을 통하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S840)를 더 포함할 수 있다. 이때, 이전의 학습 때에는 고려되지 않았던 안저 영상 및 레이블링 데이터가 추가로 고려되고, 이전의 학습 때에 있었던 오류를 바로 잡을 수 있기 때문에 상기 기계 학습 모델의 정확도가 향상되는바, 데이터가 쌓일수록 상기 기계 학습의 성능이 지속적으로 향상되는 장점이 있다.
여기에서 상기 평가 정보, 상기 수정 정보는 상기 의료 전문가 등의 외부 엔티티로부터 제공될 수 있다.
다음으로 도 9 및 도 10a 내지 10e를 참조하여 본 발명에 따른 안저 영상 판독 지원 방법의 제2 실시예를 설명하기로 한다.
도 9는 본 발명에 따른 안저 영상 판독 지원 방법의 제2 실시예를 예시적으로 나타낸 흐름도이며, 도 10a 내지 10e는 도 9에 예시된 실시예의 각 단계에서 제공되는 사용자 인터페이스(UI; user interface)를 예시적으로 나타낸 도면들이다.
도 9를 참조하면, 이 제2 실시예에 따른 안저 영상 판독 지원 방법은, 우선, 컴퓨팅 장치(200)의 통신부(210)에 의하여 구현되는 영상 획득 모듈(310)이, 상기 피검체의 안저 영상을 획득하거나 상기 컴퓨팅 장치(200)에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계(S910)를 포함한다.
도 10a에 예시적으로 도시된 바와 같이, 이 단계(S910)에서, 사용자, 즉, 판독자의 편의를 위하여 상기 피검체의 식별 번호, 나이, 성별 및 상기 안저 영상의 양안 구분 정보 중 적어도 하나가 사용자에게 제공될 수 있다. 또한, 판독은 다수의 사용자에 의하여 이루어질 수도 있는바, 이 실시예의 방법에 따라 안저 영상의 판독을 지원하는 적어도 하나의 사용자는, 전체 M개의 사용자 그룹 중 제n 사용자 그룹에 포함된 Kn인의 사용자들 중에서 선택됨으로써, 하나의 상기 안저 영상에 대하여 다수의 판독이 시행될 수 있으며, 이를 통하여 판독 결과로서의 레이블링 데이터에 대한 교차 검증이 이루어질 수 있다.
계속해서 도 9를 참조하면, 이 실시예에 따른 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)에 의하여 구현되는 판별 모듈(320)이, (i) 상기 안저 영상의 정상 여부 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 적어도 하나의 사용자로부터 상기 정상 여부 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S920)를 더 포함한다.
도 10b에 예시적으로 도시된 바와 같이, 여기에서 상기 정상 여부 정보는, 비정상 안저(abnormal fundus) 및 정상 안저(normal fundus) 중 하나일 수 있다. 예를 들어, 이 중에서 정상 안저가 선택되는 경우에는, 해당 안저 영상에 대한 이 실시예의 방법이 완료되고 다음 안저 영상이 로딩(loading)될 수 있다.
그런데, 단계(S920)에 앞서, 안저 영상의 품질이 먼저 평가되어야 하는 하는 경우에, 상기 안저 영상 판독 지원 방법은, 상기 판별 모듈(320)이, (i) 상기 안저 영상의 품질을 평가하는 영상 품질 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스, 및 (ii) 상기 적어도 하나의 사용자로부터 상기 영상 품질 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S915; 미도시)를 더 포함할 수 있다.
도 10a에 예시적으로 도시된 바와 같이, 여기에서 상기 영상 품질 정보는, 양호, 매체 혼탁(media opacity), 작은 동공/초점 흐림(small pupil/defocusing) 및 판정 불가(ungradable) 중 적어도 하나를 포함할 수 있다. 예를 들어, 이 중에서 판정 불가가 선택되는 경우에는, 해당 안저 영상에 대한 이 실시예의 방법이 완료되고 다음 안저 영상이 로딩(loading)될 수 있다.
단계(S920)의 수행 후에, 이 실시예에 따른 상기 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)가, 상기 판별 모듈(320)을 통하여, 상기 안저 영상의 개별 구획을 나타내는 구획 구분 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하고, 상기 소견 입력 모듈(352)을 통하여 (i) 상기 개별 구획에 대응되는 소견 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 통신부(210)를 통하여 상기 적어도 하나의 사용자로부터 상기 소견 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S930)를 더 포함한다.
도 10c에 예시적으로 도시된 바와 같이, 여기에서 안저 영상의 개별 구획에 대응되는 소견 정보는, 출혈, 경성 삼출물, 면화반, 드루젠 및 드루제노이드 침착물(drusen & drusenoid deposits), 망막색소변화(retinal pigmentary change)를 포함할 수 있으나, 이에 한정되지 않으며, macular hole, vascular abnormality, membrane, fluid accumulation, chroioretinal atrophy/scar, choroidal lesion, myelinated nerve fiber, RNFL defect, galucomatous disc change, non-glaucomatous disc change, other findings or artifact 등을 포함할 수 있다.
다음으로, 이 실시예에 따른 상기 안저 영상 판독 지원 방법은, 상기 컴퓨팅 장치(200)의 프로세서(220)가, 상기 진단 결과 입력 모듈(354)을 통하여 (i) 상기 소견 정보에 기초하여 상기 안저 영상에 대한 진단 정보를 생성하거나 상기 타 장치로 하여금 생성하도록 지원하는 프로세스 및 (ii) 상기 적어도 하나의 사용자로부터 상기 안저 영상 및 상기 소견 정보에 대응되는 상기 진단 정보를 입력받거나 상기 타 장치로 하여금 입력받도록 지원하는 프로세스 중 적어도 하나를 수행하는 단계(S940)를 더 포함한다.
도 10d에 예시적으로 도시된 바와 같이, 여기에서 진단 정보는, Dry AMD, Wet AMD, Early DR, Advanced DR, CRVO, BRVO/Hemi-CRVO, Epiretinal membrane, Macular Hole, Other Retinal/Choroidal Diseases/Findings, Glaucoma Suspect, Other Disc Diseases/Findings, Floaters/Artifacts Suspect를 포함할 수 있다.
이와 같은 진단 정보는 하나뿐만 아니라 여러 개가 선택될 수 있다. 다만, 이 진단 정보 간에는 배타적 관계가 있는바, Dry AMD와 Wet AMD의 선택은 서로 배타적이며, Early DR과 Advanced DR의 선택도 서로 배타적이며, CRVO와 BRVO/Hemi-CRVO의 선택도 서로 배타적이다. 이는 논리적, 병리학적으로 불필요하거나 비합리적인 판독을 방지하기 위한 것이다.
앞서 설명한 바와 같이 소견 정보에 기초하여 진단 정보를 생성하는 기계 학습 모델에 CNN 등 딥 러닝 기법이 이용될 수도 있으나, 베이지안 네트워크와 같이 종래에 잘 알려져 있는 기타 통계 방법이 활용될 수도 있을 것이다.
도 11은 도 9에 예시된 실시예에서 소견 정보로부터 진단 정보를 생성하는 방식의 하나로서 베이지안 네트워크를 나타낸 도면이다.
베이지안 네트워크는 입력값인 소견 정보로부터 최종적인 진단 정보를 확률적으로 추론하는 데 이용될 수 있는바, 도 11에 예시적으로 도시된 각 노드 간의 연결은 그 확률값에 대응된다.
다음으로, 본 발명의 이 실시예에 따른 안저 영상 판독 지원 방법은, 상기 프로세서(220)가, 저장 및 전송 모듈(340)을 통하여 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 저장 또는 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 저장 또는 제공하도록 지원하는 단계(S950)를 더 포함한다.
도 10e에 예시적으로 도시된 사용자 인터페이스와 같이, 단계(S950)에서, 상기 적어도 하나의 사용자의 선택에 따라 상기 안저 영상에 대한 상기 소견 정보 및 상기 진단 정보를 안과 의사에게 제공함으로써 상기 안과 의사로 하여금 상기 소견 정보 및 상기 진단 정보를 수정하도록 지원할 수도 있다.
제1 실시예에서와 마찬가지로 제2 실시예에 따른 안저 영상 판독 지원 방법도, 소견 정보 및 진단 정보에 관하여 평가 정보 또는 기계 학습 모델에 의하여 판정된 소견 정보 및 진단 정보를 임의로 수정한 수정 정보를 소견 입력 모듈(352) 또는 진단 결과 입력 모듈(354)을 통하여 획득하고, 상기 평가 정보 또는 상기 수정 정보에 기초하여 갱신 모듈(360)을 통하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계(S960; 미도시)를 더 포함할 수 있다. 이때, 이전의 학습 때에 있었던 오류를 바로 잡을 수 있기 때문에 상기 기계 학습 모델의 정확도가 향상되는바, 데이터가 쌓일수록 상기 기계 학습의 성능이 지속적으로 향상되는 장점이 있다.
이와 같이 본 발명은 전술한 모든 실시예들에 걸쳐, 종래의 의료 전문가들이 그 경험이나 지식에 의존하여 일일이 안저 영상을 판독하는 것에 비하여 효율적이고 정확한 판독을 가능하게 함으로써 의료진의 시간을 절약하고 진료의 질을 높이고 의료 현장에서의 워크플로(workflow)를 혁신할 수 있는 효과가 있다.
위 실시예의 설명에 기초하여 해당 기술분야의 통상의 기술자는, 본 발명이 소프트웨어 및 하드웨어의 결합을 통하여 달성되거나 하드웨어만으로 달성될 수 있다는 점을 명확하게 이해할 수 있다. 본 발명의 기술적 해법의 대상물 또는 선행 기술들에 기여하는 부분들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 기계 판독 가능한 기록 매체에 기록될 수 있다. 상기 기계 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 기계 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 통상의 기술자에게 공지되어 사용 가능한 것일 수도 있다. 기계 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다.
상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 상기 하드웨어 장치는, 프로그램 명령어를 저장하기 위한 ROM/RAM 등과 같은 메모리와 결합되고 상기 메모리에 저장된 명령어들을 실행하도록 구성되는 CPU나 GPU와 같은 프로세서를 포함할 수 있으며, 외부 장치와 신호를 주고 받을 수 있는 통신부를 포함할 수 있다. 덧붙여, 상기 하드웨어 장치는 개발자들에 의하여 작성된 명령어들을 전달받기 위한 키보드, 마우스, 기타 외부 입력장치를 포함할 수 있다.
이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 사람이라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.
따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.
그와 같이 균등하게 또는 등가적으로 변형된 것에는, 예컨대 본 발명에 따른 방법을 실시한 것과 동일한 결과를 낼 수 있는, 논리적으로 동치(logically equivalent)인 방법이 포함될 것이다.

Claims (13)

  1. 피검체에 대한 안저 영상의 판독을 지원하는 방법에 있어서,
    (a) 컴퓨팅 장치가, 상기 피검체의 안저 영상을 획득하거나 상기 컴퓨팅 장치에 연동되는 타 장치로 하여금 획득하도록 지원하는 단계;
    (b) 상기 컴퓨팅 장치가, 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델(machine learning model)에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하거나 상기 타 장치로 하여금 추출하도록 지원하는 단계; 및
    (c) 상기 컴퓨팅 장치가, 추출된 상기 속성 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하는 단계
    를 포함하되,
    상기 안저 영상의 속성 정보는,
    상기 안저 영상이 좌안의 영상인지 우안의 영상인지 여부를 나타내는 양안 구분 정보,
    상기 안저 영상에 포함된 황반 및 시신경 유두 중 적어도 하나의 위치를 나타내는 위치 정보,
    상기 안저 영상의 구획을 나타내는 구획 구분 정보,
    상기 안저 영상에 포함된 시신경 혈관의 영상만을 분리하여 나타낸 혈관 정보, 및
    상기 안저 영상에 따른 C/D 비(cup-to-disk ratio)의 정보
    중 적어도 하나를 포함하는 것을 특징으로 하는 안저 영상 판독 지원 방법.
  2. 제1항에 있어서,
    (d) 상기 추출된 속성 정보에 관하여 평가한 평가 정보 또는 상기 추출된 속성 정보를 임의로 수정한 수정 정보가 획득되면, 상기 컴퓨팅 장치가, 상기 평가 정보 또는 상기 수정 정보에 기초하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 단계
    를 더 포함하는 안저 영상 판독 지원 방법.
  3. 삭제
  4. 제1항에 있어서,
    상기 속성 정보가 상기 혈관 정보인 경우에,
    상기 기계 학습 모델은 합성 신경망(CNN; convolutional neural networks) 및 GAN(generative adversarial networks)을 포함하며,
    상기 시신경 혈관의 영상은 상기 기계 학습 모델에 기초하여 추출되는 것을 특징으로 하는 안저 영상 판독 지원 방법.
  5. 제1항에 있어서,
    상기 속성 정보가 상기 양안 구분 정보인 경우에,
    상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며,
    상기 기계 학습 모델에 기초하여 상기 안저 영상의 시신경 유두(optic disk)의 형상 및 상기 시신경 유두로부터 나오는 혈관의 주행 중 적어도 하나를 판별함으로써, 상기 시신경 유두의 형상 및 상기 혈관의 주행에 따라 상기 안저 영상의 양안 구분 정보가 추출되는 것을 특징으로 하는 안저 영상 판독 지원 방법.
  6. 제1항에 있어서,
    상기 속성 정보가 상기 위치 정보인 경우에,
    상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며,
    상기 황반 및 상기 시신경 유두 중 적어도 하나의 위치는 상기 기계 학습 모델에 기초하여 추출되는 것을 특징으로 하는 안저 영상 판독 지원 방법.
  7. 제1항에 있어서,
    상기 속성 정보가 상기 구획 구분 정보인 경우에,
    상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며,
    상기 황반 및 상기 시신경 유두의 위치는 상기 기계 학습 모델에 기초하여 추출됨으로써, 상기 황반의 중심 위치 및 상기 시신경 유두의 중심 위치에 기초하여 상기 안저 영상을 3개 이상의 개별 구획들로 구분하는 정보인 상기 구획 구분 정보가 추출되는 것을 특징으로 하는 안저 영상 판독 지원 방법.
  8. 제7항에 있어서,
    상기 개별 구획들은, 황반 영역, 시신경 유두 상측 영역, 시신경 유두 하측 영역, 외측(temporal) 영역, 상외측(superotemporal) 영역, 하외측(inferotemporal) 영역, 상비측(superonasal) 영역 및 하비측(inferonasal) 영역를 포함하며,
    상기 황반 영역은,
    상기 황반의 중심 위치와 상기 시신경 유두의 중심 위치 간의 거리 d, 및 0<k1≤1를 만족하는 소정의 k1에 대하여 k1*d를 반지름으로 하고 상기 황반의 중심 위치를 중심점으로 하는 황반 중심원의 내부 영역이고,
    상기 시신경 유두 상측 영역은,
    상기 거리 d 및 0<k2≤1를 만족하는 소정의 k2에 대하여 k2*d를 반지름으로 하고 상기 시신경 유두의 중심 위치를 중심점으로 하는 시신경 유두 중심원의 내부 영역인 시신경 유두 영역이 상기 황반의 중심 위치와 상기 시신경 유두의 중심 위치를 통과하는 직선 l1에 의하여 분할되는 영역들 중 상측의 영역이며,
    상기 시신경 유두 하측 영역은,
    상기 시신경 유두 영역이 상기 직선 l1에 의하여 분할되는 영역들 중 하측의 영역이고,
    상기 상비측 영역은,
    상기 직선 l1에 수직으로 상기 시신경 유두의 중심 위치를 통과하는 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반으로부터 먼 상측의 영역에서 상기 시신경 유두 상측 영역을 제외한 영역이며,
    상기 하비측 영역은,
    상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반으로부터 먼 하측의 영역에서 상기 시신경 유두 하측 영역을 제외한 영역이고,
    상기 외측 영역은,
    상기 직선 l1에 평행하며 상기 황반 중심원에 접하되 상기 시신경 유두로부터 멀어지는 방향으로 연장되는 2개의 반직선 l3 및 l4과 상기 황반 중심원에 의하여 분할되는 영역들 중 상기 직선 l1을 포함하는 영역에서 상기 황반 영역을 제외한 영역이며,
    상기 상외측 영역은,
    상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반에 가까운 상측의 영역에서 상기 시신경 유두 상측 영역, 상기 황반 영역 및 상기 외측 영역을 제외한 영역이며,
    상기 하외측 영역은,
    상기 직선 l2 및 상기 직선 l1에 의하여 분할되는 영역들 중 상기 황반에 가까운 하측의 영역에서 상기 시신경 유두 하측 영역, 상기 황반 영역 및 상기 외측 영역을 제외한 영역인 것을 특징으로 하는 안저 영상 판독 지원 방법.
  9. 제1항에 있어서,
    상기 속성 정보가 상기 C/D 비(cup-to-disk ratio) 정보인 경우에,
    상기 기계 학습 모델은 분획 네트워크(segmentation networks)를 포함하며,
    상기 기계 학습 모델에 기초하여 시신경 유두(optic disk) 및 안배(optic cup)를 식별함으로써 상기 C/D 비가 추출되는 것을 특징으로 하는 안저 영상 판독 지원 방법.
  10. 컴퓨팅 장치로 하여금, 제1항, 제2항 및 제4항 내지 제9항 중 어느 한 항의 방법을 수행하도록 구현된 명령어(instructions)를 포함하는, 기계 판독 가능한 비일시적 기록 매체에 저장된, 컴퓨터 프로그램.
  11. 피검체에 대한 안저 영상의 판독을 지원하는 컴퓨팅 장치에 있어서,
    상기 피검체의 안저 영상을 획득하는 통신부;
    상기 통신부를 통하여 획득된 상기 안저 영상의 속성 정보를 추출하기 위한 기계 학습 모델(machine learning model)에 기초하여 상기 안저 영상으로부터 상기 속성 정보를 추출하거나 상기 통신부를 통하여 연동되는 타 장치로 하여금 추출하도록 지원하는 프로세서
    를 포함하되,
    상기 프로세서는,
    추출된 상기 속성 정보를 외부 엔티티(entity)에게 제공하거나 상기 타 장치로 하여금 제공하도록 지원하고,
    상기 안저 영상의 속성 정보는,
    상기 안저 영상이 좌안의 영상인지 우안의 영상인지 여부를 나타내는 양안 구분 정보,
    상기 안저 영상에 포함된 황반 및 시신경 유두 중 적어도 하나의 위치를 나타내는 위치 정보,
    상기 안저 영상의 구획을 나타내는 구획 구분 정보,
    상기 안저 영상에 포함된 시신경 혈관의 영상만을 분리하여 나타낸 혈관 정보, 및
    상기 안저 영상에 따른 C/D 비(cup-to-disk ratio)의 정보
    중 적어도 하나를 포함하는 것을 특징으로 하는 안저 영상 판독 지원 장치.
  12. 제11항에 있어서,
    상기 추출된 속성 정보에 관하여 평가한 평가 정보 또는 상기 추출된 속성 정보를 임의로 수정한 수정 정보가 상기 통신부를 통하여 획득되면,
    상기 프로세서는,
    상기 평가 정보 또는 상기 수정 정보에 기초하여 상기 기계 학습 모델을 갱신하거나 상기 타 장치로 하여금 갱신하도록 지원하는 것을 특징으로 하는 안저 영상 판독 지원 장치.
  13. 삭제
KR1020170141129A 2017-10-27 2017-10-27 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치 KR101848321B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170141129A KR101848321B1 (ko) 2017-10-27 2017-10-27 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
US16/759,594 US11771318B2 (en) 2017-10-27 2018-07-18 Method for supporting reading of fundus image of subject, and device using same
JP2020523359A JP7178672B6 (ja) 2017-10-27 2018-07-18 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置
PCT/KR2018/008099 WO2019083129A1 (ko) 2017-10-27 2018-07-18 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170141129A KR101848321B1 (ko) 2017-10-27 2017-10-27 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Publications (1)

Publication Number Publication Date
KR101848321B1 true KR101848321B1 (ko) 2018-04-20

Family

ID=62088292

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170141129A KR101848321B1 (ko) 2017-10-27 2017-10-27 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치

Country Status (1)

Country Link
KR (1) KR101848321B1 (ko)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109325944A (zh) * 2018-09-13 2019-02-12 福建农林大学 一种基于支持度变换和线检测算子的视网膜血管分割方法
KR101957812B1 (ko) * 2018-08-31 2019-03-13 주식회사 뷰노 인공지능 영상 분석에 있어 특징 공간을 활용한 부호화 및 복호화를 수행하는 방법 및 이를 이용한 장치
KR101953752B1 (ko) 2018-05-31 2019-06-17 주식회사 뷰노 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치
KR20190087272A (ko) 2018-01-16 2019-07-24 한국전자통신연구원 안저영상을 이용한 녹내장 진단 방법 및 이를 위한 장치
WO2019231104A1 (ko) * 2018-05-31 2019-12-05 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR20190139721A (ko) * 2018-06-08 2019-12-18 연세대학교 산학협력단 X-ray/CT 영상에서 혈관 조각 병합 방법 및 장치
KR20200005409A (ko) * 2018-07-06 2020-01-15 연세대학교 산학협력단 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR20200023029A (ko) * 2018-08-24 2020-03-04 연세대학교 산학협력단 진단 보조 시스템 및 그 제어 방법
KR20200052411A (ko) 2018-10-24 2020-05-15 삼성에스디에스 주식회사 영상 분류 장치 및 방법
KR20200065923A (ko) * 2018-11-30 2020-06-09 아주대학교산학협력단 기계학습용 의료 영상 데이터셋의 품질을 평가하는 방법 및 시스템
WO2020116878A1 (ko) * 2018-12-03 2020-06-11 서울대학교병원 안저 사진을 이용한 뇌동맥류 예측 장치 및 뇌동맥류 예측 결과 제공 방법
KR20200072127A (ko) * 2018-12-12 2020-06-22 사회복지법인 삼성생명공익재단 인공지능을 이용한 안질환 진단 방법 및 시스템
KR20200093321A (ko) * 2019-01-28 2020-08-05 네이버 주식회사 이미지 검색 장치 및 방법
KR20200094938A (ko) * 2019-01-31 2020-08-10 동서대학교 산학협력단 생성적 대립 네트워크를 이용한 데이터의 불균형 해결방법
KR20200124610A (ko) * 2019-04-24 2020-11-03 쥐이 프리시즌 헬스케어 엘엘씨 의료 기계 합성 데이터 및 대응하는 이벤트 생성
CN112022083A (zh) * 2020-07-31 2020-12-04 上海理工大学 一种基于双向扫描的中央凹定位方法及系统
KR20210020983A (ko) 2021-02-18 2021-02-24 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR20210073388A (ko) * 2019-12-10 2021-06-18 사회복지법인 삼성생명공익재단 전안부 이미지를 이용한 각막 병변 분석 시스템 및 방법 그리고 컴퓨터로 판독 가능한 기록 매체
US11080850B2 (en) 2018-01-16 2021-08-03 Electronics And Telecommunications Research Institute Glaucoma diagnosis method using fundus image and apparatus for the same
KR20210096737A (ko) 2020-01-29 2021-08-06 자이메드 주식회사 안저 영상판독 지원방법, 안저 영상판독 지원장치 및 이를 포함하는 안저 영상판독 지원 시스템
US11164313B2 (en) 2017-12-20 2021-11-02 Medi Whale Inc. Method and device for assisting heart disease diagnosis
KR20210151395A (ko) * 2020-06-05 2021-12-14 자이메드 주식회사 안저영상을 이용한 혈관질환 예측 지원방법 및 지원장치, 이를 포함하는 시스템
KR20210153166A (ko) * 2020-06-09 2021-12-17 성균관대학교산학협력단 인공지능기반 황반 변성 악화 예측 장치 및 방법
US11276497B2 (en) 2017-08-25 2022-03-15 Medi Whale Inc. Diagnosis assistance system and control method thereof
WO2022085986A1 (ko) * 2020-10-22 2022-04-28 순천향대학교 산학협력단 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법
CN114565826A (zh) * 2022-04-28 2022-05-31 南京绿色科技研究院有限公司 一种农业病虫害识别诊断方法、系统及装置
WO2022158727A1 (ko) * 2021-01-25 2022-07-28 자이메드 주식회사 생체 이미지 판독 지원 장치 및 방법
KR20220161672A (ko) 2021-05-31 2022-12-07 자이메드 주식회사 설명 가능한 생체 이미지 판독 지원 장치 및 방법
CN116934750A (zh) * 2023-09-15 2023-10-24 山东庆葆堂生物科技有限公司 一种醋蛋液生产质量评估方法
US11984201B2 (en) 2019-11-20 2024-05-14 GE Precision Healthcare LLC Medical machine synthetic data and corresponding event generation

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11276497B2 (en) 2017-08-25 2022-03-15 Medi Whale Inc. Diagnosis assistance system and control method thereof
US11164313B2 (en) 2017-12-20 2021-11-02 Medi Whale Inc. Method and device for assisting heart disease diagnosis
US11869184B2 (en) 2017-12-20 2024-01-09 Medi Whale Inc. Method and device for assisting heart disease diagnosis
KR20190087272A (ko) 2018-01-16 2019-07-24 한국전자통신연구원 안저영상을 이용한 녹내장 진단 방법 및 이를 위한 장치
US11080850B2 (en) 2018-01-16 2021-08-03 Electronics And Telecommunications Research Institute Glaucoma diagnosis method using fundus image and apparatus for the same
KR20190136577A (ko) 2018-05-31 2019-12-10 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR102220109B1 (ko) * 2018-05-31 2021-02-25 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
WO2019231104A1 (ko) * 2018-05-31 2019-12-05 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR101953752B1 (ko) 2018-05-31 2019-06-17 주식회사 뷰노 심층 신경망을 이용하여 영상의 분류 및 국소화를 수행하는 방법 및 이를 이용한 장치
KR20190139721A (ko) * 2018-06-08 2019-12-18 연세대학교 산학협력단 X-ray/CT 영상에서 혈관 조각 병합 방법 및 장치
KR102187712B1 (ko) * 2018-06-08 2020-12-07 연세대학교 산학협력단 X-ray/CT 영상에서 혈관 조각 병합 방법 및 장치
KR20200005409A (ko) * 2018-07-06 2020-01-15 연세대학교 산학협력단 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR102270659B1 (ko) 2018-07-06 2021-06-29 주식회사 메디웨일 안저 이미지 관리 장치 및 안저 이미지의 적합성 판단 방법
KR20200023029A (ko) * 2018-08-24 2020-03-04 연세대학교 산학협력단 진단 보조 시스템 및 그 제어 방법
KR102301058B1 (ko) 2018-08-24 2021-09-10 주식회사 메디웨일 진단 보조 시스템 및 그 제어 방법
KR101957812B1 (ko) * 2018-08-31 2019-03-13 주식회사 뷰노 인공지능 영상 분석에 있어 특징 공간을 활용한 부호화 및 복호화를 수행하는 방법 및 이를 이용한 장치
CN109325944A (zh) * 2018-09-13 2019-02-12 福建农林大学 一种基于支持度变换和线检测算子的视网膜血管分割方法
KR20200052411A (ko) 2018-10-24 2020-05-15 삼성에스디에스 주식회사 영상 분류 장치 및 방법
KR20200065923A (ko) * 2018-11-30 2020-06-09 아주대학교산학협력단 기계학습용 의료 영상 데이터셋의 품질을 평가하는 방법 및 시스템
KR102236826B1 (ko) 2018-11-30 2021-04-06 아주대학교산학협력단 기계학습용 의료 영상 데이터셋의 품질을 평가하는 방법 및 시스템
WO2020116878A1 (ko) * 2018-12-03 2020-06-11 서울대학교병원 안저 사진을 이용한 뇌동맥류 예측 장치 및 뇌동맥류 예측 결과 제공 방법
KR20200072127A (ko) * 2018-12-12 2020-06-22 사회복지법인 삼성생명공익재단 인공지능을 이용한 안질환 진단 방법 및 시스템
KR102329468B1 (ko) * 2018-12-12 2021-11-24 사회복지법인 삼성생명공익재단 인공지능을 이용한 안질환 진단 방법 및 시스템
US11197608B2 (en) 2018-12-12 2021-12-14 Samsung Life Public Welfare Foundation Eye disease diagnosis method and system using artificial intelligence
KR102221122B1 (ko) * 2019-01-28 2021-02-25 네이버 주식회사 이미지 검색 장치 및 방법
KR20200093321A (ko) * 2019-01-28 2020-08-05 네이버 주식회사 이미지 검색 장치 및 방법
KR102284356B1 (ko) 2019-01-31 2021-08-02 동서대학교 산학협력단 컴퓨터 네트워크 시스템의 생성적 대립 네트워크를 이용한 데이터의 불균형 해결방법
KR20200094938A (ko) * 2019-01-31 2020-08-10 동서대학교 산학협력단 생성적 대립 네트워크를 이용한 데이터의 불균형 해결방법
KR20200124610A (ko) * 2019-04-24 2020-11-03 쥐이 프리시즌 헬스케어 엘엘씨 의료 기계 합성 데이터 및 대응하는 이벤트 생성
KR102480192B1 (ko) 2019-04-24 2022-12-21 쥐이 프리시즌 헬스케어 엘엘씨 의료 기계 합성 데이터 및 대응하는 이벤트 생성
US11984201B2 (en) 2019-11-20 2024-05-14 GE Precision Healthcare LLC Medical machine synthetic data and corresponding event generation
KR20210073388A (ko) * 2019-12-10 2021-06-18 사회복지법인 삼성생명공익재단 전안부 이미지를 이용한 각막 병변 분석 시스템 및 방법 그리고 컴퓨터로 판독 가능한 기록 매체
KR102329313B1 (ko) * 2019-12-10 2021-11-19 사회복지법인 삼성생명공익재단 전안부 이미지를 이용한 각막 병변 분석 시스템 및 방법 그리고 컴퓨터로 판독 가능한 기록 매체
WO2021118255A3 (ko) * 2019-12-10 2021-08-05 사회복지법인 삼성생명공익재단 전안부 이미지를 이용한 각막 병변 분석 시스템 및 방법 그리고 컴퓨터로 판독 가능한 기록 매체
KR20210096737A (ko) 2020-01-29 2021-08-06 자이메드 주식회사 안저 영상판독 지원방법, 안저 영상판독 지원장치 및 이를 포함하는 안저 영상판독 지원 시스템
US11730364B2 (en) 2020-01-29 2023-08-22 XAIMED Co., Ltd. Apparatus and methods for supporting reading of fundus image
KR20210151395A (ko) * 2020-06-05 2021-12-14 자이메드 주식회사 안저영상을 이용한 혈관질환 예측 지원방법 및 지원장치, 이를 포함하는 시스템
KR102414994B1 (ko) * 2020-06-05 2022-06-30 자이메드 주식회사 안저영상을 이용한 혈관질환 예측 지원방법 및 지원장치, 이를 포함하는 시스템
US11969213B2 (en) 2020-06-05 2024-04-30 XAIMED Co., Ltd. Method for supporting prediction of vascular disease using fundus image, apparatus therefor and system including the same
KR102466792B1 (ko) 2020-06-09 2022-11-14 성균관대학교산학협력단 인공지능기반 황반 변성 악화 예측 장치 및 방법
KR20210153166A (ko) * 2020-06-09 2021-12-17 성균관대학교산학협력단 인공지능기반 황반 변성 악화 예측 장치 및 방법
CN112022083A (zh) * 2020-07-31 2020-12-04 上海理工大学 一种基于双向扫描的中央凹定位方法及系统
WO2022085986A1 (ko) * 2020-10-22 2022-04-28 순천향대학교 산학협력단 안과 질환 진단을 위한 딥러닝 기반의 안저 영상 분류 장치 및 방법
WO2022158727A1 (ko) * 2021-01-25 2022-07-28 자이메드 주식회사 생체 이미지 판독 지원 장치 및 방법
KR20220108235A (ko) 2021-01-25 2022-08-03 자이메드 주식회사 생체 이미지 판독 지원 장치 및 방법
KR20210020983A (ko) 2021-02-18 2021-02-24 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR102234139B1 (ko) 2021-02-18 2021-03-31 주식회사 뷰노 심층 신경망을 이용하여 영상을 분류하는 방법 및 이를 이용한 장치
KR20220161672A (ko) 2021-05-31 2022-12-07 자이메드 주식회사 설명 가능한 생체 이미지 판독 지원 장치 및 방법
CN114565826A (zh) * 2022-04-28 2022-05-31 南京绿色科技研究院有限公司 一种农业病虫害识别诊断方法、系统及装置
CN116934750B (zh) * 2023-09-15 2023-12-01 山东庆葆堂生物科技有限公司 一种醋蛋液生产质量评估方法
CN116934750A (zh) * 2023-09-15 2023-10-24 山东庆葆堂生物科技有限公司 一种醋蛋液生产质量评估方法

Similar Documents

Publication Publication Date Title
KR101848321B1 (ko) 피검체에 대한 안저 영상의 판독을 지원하는 방법 및 이를 이용한 장치
JP7178672B2 (ja) 被検体に対する眼底映像の読取を支援する方法及びそれを利用した装置
KR101848322B1 (ko) 피검체에 대한 안저 영상의 소견 및 진단 정보의 생성을 위하여 판독을 지원하는 방법 및 이를 이용한 장치
KR101977645B1 (ko) 안구영상 분석방법
US11869184B2 (en) Method and device for assisting heart disease diagnosis
US11935241B2 (en) Image processing apparatus, image processing method and computer-readable medium for improving image quality
JP6867117B2 (ja) 医用画像処理方法及び医用画像処理装置
US20240144478A1 (en) Method and device for assisting heart disease diagnosis
US20170156582A1 (en) Automated clinical evaluation of the eye
KR20220051369A (ko) 정보 처리 장치, 정보 처리 방법, 정보 처리 시스템 및 프로그램
Kauppi Eye fundus image analysis for automatic detection of diabetic retinopathy
JP7413147B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR102596534B1 (ko) 진단 보조 방법 및 장치
KR102071774B1 (ko) 안구영상을 이용한 심뇌혈관 질환 예측방법
US20220005584A1 (en) Information processing apparatus, information processing method, and storage medium
JP7478216B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
JP2022155690A (ja) 画像処理装置、画像処理方法、及びプログラム
Arefin et al. Non-transfer deep learning of optical coherence tomography for post-hoc explanation of macular disease classification
US20220301709A1 (en) Diagnosis assistance method and cardiovascular disease diagnosis assistance method
KR102343796B1 (ko) 안구영상을 이용한 심혈관계 질환 예측방법
JP7194136B2 (ja) 眼科装置、眼科装置の制御方法、及びプログラム
JP7344847B2 (ja) 画像処理装置、画像処理方法、及びプログラム
Young et al. Automated Detection of Vascular Leakage in Fluorescein Angiography–A Proof of Concept
de Moura et al. Fully automated identification and clinical classification of macular edema using optical coherence tomography images
Preity et al. Automated computationally intelligent methods for ocular vessel segmentation and disease detection: a review

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant