KR20210154731A - Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same - Google Patents

Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same Download PDF

Info

Publication number
KR20210154731A
KR20210154731A KR1020210069166A KR20210069166A KR20210154731A KR 20210154731 A KR20210154731 A KR 20210154731A KR 1020210069166 A KR1020210069166 A KR 1020210069166A KR 20210069166 A KR20210069166 A KR 20210069166A KR 20210154731 A KR20210154731 A KR 20210154731A
Authority
KR
South Korea
Prior art keywords
fundus
image
fundus image
blood vessel
region
Prior art date
Application number
KR1020210069166A
Other languages
Korean (ko)
Other versions
KR102575370B1 (en
Inventor
박상준
김주영
이수찬
Original Assignee
서울대학교병원
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 국민대학교산학협력단 filed Critical 서울대학교병원
Publication of KR20210154731A publication Critical patent/KR20210154731A/en
Application granted granted Critical
Publication of KR102575370B1 publication Critical patent/KR102575370B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

Embodiments relate to a method for detecting a change of a fundus and to a device performing the same. The method include the steps of: acquiring first and second fundus images taken respectively at first and second time points of the eye of a subject; matching the first and second fundus images based on intraocular blood vessels; detecting the region of interest in the first fundus image and the region of interest in the second fundus image from the matched image; and, based on the region of interest image in the first fundus image and the region of interest in the second fundus image, detecting a fundus change from the first time point to the second time point.

Description

안저영상의 종단적 분석을 위한 안저 변화 검출 방법 및 이를 수행하는 장치{METHOD FOR DETECTING CHANGE OF FUNDUS FOR LONGITUDINAL ANALYSIS OF FUNDUSIMAGE AND DEVICE PERFORMING THE SAME}Fundus change detection method for longitudinal analysis of fundus images, and apparatus for performing the same

본 출원은 안저 변화를 검출하는 기술에 관한 것으로서, 보다 상세하게는 동일한 대상자의 다른 시점에 촬영한 안저영상을 각 안저영상의 혈관에 기초하여 정합하고 정합된 사진에서 안저 변화를 검출하는 방법 및 이를 수행하는 장치에 관한 것이다.The present application relates to a technique for detecting a fundus change, and more particularly, a method of matching fundus images taken at different time points of the same subject based on blood vessels of each fundus image and detecting fundus changes in the registered photos, and the It is about the device that does it.

전문의가 질환을 판단하기위해 현시점에 촬영한 안저영상 뿐만 아니라, 과거 촬영된 안저영상으로부터 변화 여부를 살펴보아야 할 필요가 있다. 따라서 다른 시점에 촬영된 두 안저 영상에서의 종단적 분석을 통해 미세한 변화까지 검출함으로써 전문의 판단을 보조하는 기술이 요구된다.In order for a specialist to determine the disease, it is necessary to examine whether there is a change from the fundus image taken in the past as well as the fundus image taken at the present time. Therefore, there is a need for a technique that assists in expert judgment by detecting even minute changes through longitudinal analysis in two fundus images taken at different points in time.

한국등록특허 제10-1761510호 (2017.07.26.)Korean Patent Registration No. 10-1761510 (2017.07.26.)

본 출원의 일 측면에 따르면 동일한 대상자의 다른 시점에 촬영한 안저영상을 각 안저영상의 혈관에 기초하여 정합하고 정합된 사진에서 안저 변화를 검출함으로써, 안저영상의 종단적 분석을 지원하는 장치를 제공할 수 있다. According to one aspect of the present application, an apparatus for supporting longitudinal analysis of fundus images is provided by matching fundus images taken at different time points of the same subject based on blood vessels of each fundus image and detecting fundus changes in the registered photos. can do.

이 외에도, 상기 안저 변화 검출 방법 및 이를 수행하게 하는 명령어들을 기록한 컴퓨터 판독가능한 기록매체를 제공할 수 있다.In addition, it is possible to provide a computer-readable recording medium recording the fundus change detection method and instructions for performing the same.

본 출원의 일 측면에 따른 프로세서를 포함한 컴퓨팅 장치에 의해 수행되는 정합 방법은: 대상자의 안구를 제1 및 제2 시점에서 각각 촬영한 제1 및 제2 안저영상을 획득하는 단계; 안구 내 혈관에 기초하여 제1 및 제2 안저영상을 정합하는 단계; 정합 영상에서 제1 안저영상 내 관심영역 및 제2 안저영상 내 관심영역을 검출하는 단계; 및 제1 안저영상의 관심영역 영상과 제2 안저영상 내 관심영역 영상에 기초하여 제1 시점에서 제2 시점 동안의 안저 변화를 검출하는 단계를 포함할 수도 있다. A registration method performed by a computing device including a processor according to an aspect of the present application includes: acquiring first and second fundus images obtained by photographing an eyeball of a subject at first and second time points, respectively; registering the first and second fundus images based on intraocular blood vessels; detecting the region of interest in the first fundus image and the region of interest in the second fundus image from the matched image; and detecting a fundus change from the first viewpoint to the second viewpoint based on the region of interest image of the first fundus image and the region of interest image in the second fundus image.

일 실시예에서, 상기 제1 안저영상과 제2 안저영상을 정합하는 단계는; 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상을 제2 안저영상에 정합하는 단계; 상기 제1 안저영상에서 혈관 영역을 나타낸 제1 혈관 마스크를 생성하는 단계; 상기 제2 안저영상에서 혈관 영역을 나타낸 제2 혈관 마스크를 생성하는 단계; 및 상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합하는 단계를 포함할 수도 있다.In one embodiment, the step of matching the first fundus image and the second fundus image; matching the first fundus image to the second fundus image based on the feature points of the first and second fundus images; generating a first blood vessel mask representing a blood vessel region in the first fundus image; generating a second blood vessel mask representing a blood vessel region in the second fundus image; and re-registering the first fundus image and the second fundus image by deformable registration of the first blood vessel mask and the second blood vessel mask.

일 실시예에서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는, 상기 제1 안저영상 내 영역 특성에 기초한 혈관 추출 모델을 이용하여 상기 제1 안저영상의 적어도 일부의 혈관 형상을 추출하는 단계; 및 혈관 영역에 대응한 형상을 갖는 혈관 마스크를 생성하는 단계를 포함할 수도 있다. 상기 혈관 추출 모델은 입력영상 내 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된다. In an embodiment, the generating of the first blood vessel mask from the first fundus image may include extracting the shape of blood vessels of at least a portion of the first fundus image using a blood vessel extraction model based on region characteristics within the first fundus image. to do; and generating a blood vessel mask having a shape corresponding to the blood vessel region. The blood vessel extraction model is trained to output blood vessels in an input image as a vessel probability map.

일 실시예에서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는, 추출된 혈관 형상을 혈관 영역으로 포함한 영상을 이진화하여 이진화 혈관 마스크를 생성하는 단계; 이진화 혈관 마스크를 포함한 영상을 반전(inverted) 처리하여 혈관과 외부 경계 사이의 밸리(velly)를 검출하는 단계; 및 밸리 내부가 상기 혈관을 나타내도록 상기 밸리 내부를 채우는 단계를 더 포함할 수도 있다.In an embodiment, the generating of the first blood vessel mask from the first fundus image may include: generating a binarized blood vessel mask by binarizing an image including the extracted blood vessel shape as a blood vessel region; detecting a valley between a blood vessel and an external boundary by inverting the image including the binarized blood vessel mask; and filling the inside of the valley so that the inside of the valley represents the blood vessel.

일 실시예에서, 상기 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상을 제2 안저영상에 정합하는 단계는, 영상의 크기와 회전에 불변하는 특징을 추출하는 특징 서술자를 통해 적어도 하나의 특징점을 상기 제1 및 제2 안저영상에서 추출하는 단계; 상기 제1 및 제2 안저영상에서 추출된 특징점 중 하나 이상의 특징점을 샘플링하는 단계; 및 샘플링된 특징점에 기초하여 상기 제1 및 제2 안저영상을 강체 정합하는 단계를 포함할 수도 있다.In an embodiment, the step of matching the first fundus image to the second fundus image based on the feature points of the first and second fundus images includes at least through a feature descriptor for extracting features that are invariant to the size and rotation of the image. extracting one feature point from the first and second fundus images; sampling at least one of the feature points extracted from the first and second fundus images; and rigid body registration of the first and second fundus images based on the sampled feature points.

일 실시예에서, 상기 관심영역은 시신경 유두 부분 및 황반 부분 중 하나 이상을 포함한다. 상기 제1 안저영상 내부의 하나 이상의 관심영역을 검출하는 단계는, 상기 정합된 제1 및 제2 안저영상을 제1 관심영역 추정 모델에 적용하여 상기 정합된 제1 및 제2 안저영상에서 관심영역의 위치를 각각 검출할 수도 있다. 상기 제1 관심영역 추정 모델은, 상기 시신경 유두 부분의 x좌표 및 y좌표 중 하나 이상, 또는 상기 황반 부분의 x좌표 및 y좌표 중 하나 이상을 출력하도록 모델링된 것이다. In an embodiment, the region of interest includes at least one of an optic nerve papilla portion and a macular portion. The detecting of the one or more regions of interest in the first fundus image may include applying the matched first and second fundus images to a first region of interest estimation model to obtain regions of interest in the matched first and second fundus images. It is also possible to detect the positions of each. The first region of interest estimation model is modeled to output at least one of an x-coordinate and a y-coordinate of the optic nerve head portion, or at least one of an x-coordinate and a y-coordinate of the macula portion.

일 실시예에서, 상기 관심영역은 이상소견 영역을 포함한다. 그러면, 상기 제1 안저영상 내부의 하나 이상의 관심영역을 검출하는 단계는, 상기 정합된 제1 및 제2 안저영상을 제2 관심영역 추정 모델에 적용하여 상기 정합된 제1 및 제2 안저영상에서 관심영역의 위치를 각각 검출할 수도 있다. 상기 제2 관심영역 추정 모델은, 입력된 안저영상이 질환 영상 그룹에 속하는지 여부를 분류하도록 모델링된 것이다. In an embodiment, the region of interest includes an abnormal finding region. Then, the detecting of the one or more regions of interest in the first fundus image may include applying the matched first and second fundus images to a second region of interest estimation model in the matched first and second fundus images. The positions of the regions of interest may be respectively detected. The second region of interest estimation model is modeled to classify whether the input fundus image belongs to a disease image group.

일 실시예에서, 상기 관심영역은 혈관에 대응하는 영역을 포함한다. 그러면, 상기 혈관 영역의 위치는 제1 안저영상에서 생성된 혈관 마스크의 위치일 수도 있다. In an embodiment, the region of interest includes a region corresponding to a blood vessel. Then, the location of the blood vessel region may be the location of the blood vessel mask generated in the first fundus image.

일 실시예에서, 상기 제1 시점과 제2 시점 동안의 안저 변화를 산출하는 단계는, 상기 제1 및 제2 안저영상을 변화 검출 모델에 적용하여 안저 변화를 검출하는 단계를 포함할 수도 있다. 상기 변화 검출 모델은, 상기 제1 및 제2 안저영상에서 제1 특징의 세트 및 제2 특징의 세트를 각각 추출하고, 상기 제1 및 제2 특징의 세트의 특징 간 상관 맵을 산출하고, 상기 상관 맵에 기초하여 상기 제1 및 제2 안저영상의 쌍이 안저 변화를 갖는 그룹에 속하는지 분류하도록 모델링된 것이다. In an embodiment, the calculating of the fundus change during the first time point and the second time point may include detecting the fundus change by applying the first and second fundus images to a change detection model. The change detection model extracts a first feature set and a second feature set from the first and second fundus images, respectively, calculates a correlation map between features of the first and second feature sets, and the Based on the correlation map, it is modeled to classify whether the pair of the first and second fundus images belongs to a group having a fundus change.

일 실시예에서, 상기 제1 시점과 제2 시점 동안의 안저 변화를 산출하는 단계는, 상기 제1 안저영상 내 상기 검출된 관심영역과 상기 제2 안저영상 내 상기 검출된 관심영역의 색상을 픽셀 단위로 비교하여 변화를 검출하는 단계를 포함할 수도 있다.In an embodiment, the calculating of the fundus change during the first time point and the second time point comprises pixel colors of the detected area of interest in the first fundus image and the detected area of interest in the second fundus image. It may include the step of detecting a change by comparing in units.

본 출원의 다른 일 측면에 따른 컴퓨터 판독가능 기록매체는 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장할 수도 있다. 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 상술한 실시예들에 따른 안저 변화 검출 방법을 수행하게 한다. A computer-readable recording medium according to another aspect of the present application may be readable by a computing device, and may store program instructions operable by the computing device. When the program instruction is executed by the processor of the computing device, the processor performs the fundus change detection method according to the above-described embodiments.

본 출원의 또 다른 일 측면에 따른 장치는: 안저 카메라에 의해 촬영된 안저영상을 획득하는 영상 획득부 - 상기 안저영상은 제1 시점에 촬영된 대상자의 제1 안저영상 및 제2 시점에 촬영된 상기 대상자의 제2 안저영상을 포함함; 상기 안저영상에서 혈관 영역을 나타낸 혈관 마스크를 생성하고, 상기 제1 및 제2 안저영상의 혈관 마스크에 기초하여 제1 및 제2 안저영상을 정합하는 정합부; 및 정합 결과에 기초하여 제1 시점에서 제2 시점 동안의 안저 변화를 검출하는 안저 변화 검출부를 포함할 수도 있다.An apparatus according to another aspect of the present application includes: an image acquisition unit for acquiring a fundus image photographed by a fundus camera - The fundus image is a first fundus image of a subject photographed at a first time point and a second time point photographed including a second fundus image of the subject; a matching unit for generating a blood vessel mask representing a blood vessel region in the fundus image, and matching first and second fundus images based on the blood vessel masks of the first and second fundus images; and a fundus change detector configured to detect a fundus change from the first time point to the second time point based on the matching result.

본 출원의 일 측면에 따른 장치는 다른 시점에서 촬영된 대상자의 다수의 안저영상으로부터 안저 변화를 검출할 수 있다. 그 결과 상기 장치는 대상자의 안저 상태를 종단적으로 분석하는 것을 지원할 수 있다. The device according to an aspect of the present application may detect a fundus change from a plurality of fundus images of a subject taken at different time points. As a result, the device can support longitudinal analysis of the fundus condition of the subject.

상기 장치는 이미 구비된 대상자의 다수의 안저영상을 정합할 수도 있다. 그 결과, 상기 장치는 하나의 안저영상 보다 더 넓은 시야각을 갖는, 광각 안저영상을 정합영상으로 생성할 수 있다. The device may register a plurality of fundus images of the subject already provided. As a result, the device may generate a wide-angle fundus image, which has a wider viewing angle than one fundus image, as a registered image.

또한, 상기 장치는 촬영 범위가 서로 상이한 안저영상을 정합할 수도 있다. 그 결과, 상기 장치는 횡단적 분석도 지원할 수도 있다. Also, the apparatus may register fundus images having different photographing ranges. As a result, the device may also support cross-sectional analysis.

상기 장치는 종단적/횡단적 분석을 위한 정합 영상과 같은 시각화 영상을 생성하기 위해서, OPTOS 사의 레이저 스캔 장치와 같은 별도의 장치를 사용할 필요가 없다. 또한, 상기 장치는 안저 촬영 환경 및/또는 촬영 기기에 영향을 받지 않고 이러한 시각화 영상을 생성할 수도 있다. In order to generate a visualization image such as a registration image for longitudinal/transverse analysis, there is no need to use a separate device such as a laser scanning device of OPTOS. In addition, the device may generate such a visualization image without being affected by the fundus imaging environment and/or imaging device.

본 출원의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present application are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 출원 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 출원의 제1 측면의 실시예들에 따른, 안저 변화 검출 방법을 수행하는 장치의 개념도이다.
도 2는, 본 출원의 일 실시예에 따른, 안저 변화 검출 방법의 흐름도이다.
도 3은, 본 출원의 일 실시예에 따른, 입력 안저영상의 쌍을 도시한 도면이다.
도 4는, 본 출원의 일 실시예에 따른, 정합 과정의 흐름도이다.
도 5a 및 도 5 b는, 본 출원의 일 실시예에 따른, 혈관의 특징점에 기초한 정합 결과를 도시한 도면이다.
도 6a 내지 도 6d는, 추출된 혈관 마스크를 후처리한 결과를 도시한 도면이다.
도 7 a 및 도 7b는, 본 출원의 일 실시예에 따른, 혈관 마스크를 변형 정합한 결과를 도시한 도면이다.
도 8은, 본 출원의 일 실시예에 따른, 안저 변화를 검출하는 변화 검출 모델의 개념적인 네트워크 구조도이다.
도 9는, 본 발명의 일 실시예에 따른, 시신경 유두/황반 검출 모델의 개략적인 네트워크 아키텍쳐를 도시한다.
도 10은, 본 출원의 제2 측면에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법의 흐름도이다.
도 11은, 도 10의 광각 안저영상을 생성하기 위한 안저영항 정합 방법의 개략도이다.
In order to more clearly explain the technical solutions of the embodiments of the present application or the prior art, drawings necessary for the description of the embodiments are briefly introduced below. It should be understood that the following drawings are for the purpose of explaining the embodiments of the present specification and not for the purpose of limitation. In addition, some elements to which various modifications such as exaggeration and omission have been applied may be shown in the drawings below for clarity of description.
1 is a conceptual diagram of an apparatus for performing a fundus change detection method according to embodiments of a first aspect of the present application.
2 is a flowchart of a fundus change detection method according to an embodiment of the present application.
3 is a diagram illustrating a pair of input fundus images according to an embodiment of the present application.
4 is a flowchart of a registration process according to an embodiment of the present application.
5A and 5B are diagrams illustrating matching results based on feature points of blood vessels, according to an embodiment of the present application.
6A to 6D are diagrams illustrating the results of post-processing the extracted blood vessel mask.
7A and 7B are diagrams illustrating a result of deforming and matching a blood vessel mask according to an embodiment of the present application.
8 is a conceptual network structure diagram of a change detection model for detecting a fundus change, according to an embodiment of the present application.
9 shows a schematic network architecture of an optic disc/macular detection model, according to an embodiment of the present invention.
10 is a flowchart of a fundus image registration method for generating a wide-angle fundus image according to the second aspect of the present application.
FIG. 11 is a schematic diagram of a fundus input term matching method for generating the wide-angle fundus image of FIG. 10 .

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 출원을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is for the purpose of referring to specific embodiments only, and is not intended to limit the present application. As used herein, the singular forms also include the plural forms unless the phrases clearly indicate the opposite. The meaning of "comprising," as used herein, specifies a particular characteristic, region, integer, step, operation, element and/or component, and includes the presence or absence of another characteristic, region, integer, step, operation, element and/or component. It does not exclude additions.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 출원이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined otherwise, all terms including technical and scientific terms used herein have the same meaning as commonly understood by a person of ordinary skill in the art to which this application belongs. Commonly used terms defined in the dictionary are additionally interpreted as having a meaning consistent with the related technical literature and the presently disclosed content, and unless defined, are not interpreted in an ideal or very formal meaning.

이하에서, 도면을 참조하여 본 출원의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present application will be described in detail with reference to the drawings.

도 1은, 본 출원의 제1 측면의 실시예들에 따른, 안저 변화 검출 방법을 수행하는 장치의 개념도이다. 1 is a conceptual diagram of an apparatus for performing a fundus change detection method according to embodiments of a first aspect of the present application.

도 1을 참조하면, 상기 장치(10)는 안저 카메라(미도시)로부터 안저영상을 획득하도록 구성된다. 상기 장치(10)는 영상 획득부(100); 정합부(300); 및 안저 변화 검출부(500)를 포함할 수도 있다. Referring to FIG. 1 , the device 10 is configured to acquire a fundus image from a fundus camera (not shown). The device 10 includes an image acquisition unit 100; matching unit 300; and a fundus change detection unit 500 .

실시예들에 따른 상기 장치(10)는 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 장치는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치”, 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The device 10 according to embodiments may be entirely hardware, entirely software, or may have aspects that are partly hardware and partly software. For example, the device may collectively refer to hardware equipped with data processing capability and operating software for driving the same. As used herein, terms such as “unit”, “module,” “device,” or “system” are intended to refer to a combination of hardware and software run by the hardware. For example, the hardware may be a data processing device including a central processing unit (CPU), a graphic processing unit (GPU), or another processor. In addition, software may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

영상 획득부(100)는 대상자의 안구를 촬영한 안저 카메라를 통해 대상자의 안저영상(또는 안저 사진)을 획득한다. 특정 실시예들에서, 안저 카메라는 대상자의 안구를 촬영한 촬영 데이터를 장치(10)로 유/무선 전기 통신을 통해 전송한다. 다른 특정 실시예들에서, 안저 카메라는 상기 장치(10)에 집적될 수도 있다. The image acquisition unit 100 acquires a fundus image (or fundus photo) of the subject through a fundus camera photographing the subject's eyeball. In certain embodiments, the fundus camera transmits photographing data of the subject's eye to the device 10 through wired/wireless electrical communication. In other specific embodiments, a fundus camera may be integrated into the device 10 .

상기 안저 카메라는 안저영상을 획득할 수 있는 다양한 안저 카메라를 포함한다. 예를 들어, 상기 안저 카메라는 산동 안저 카메라, 무산동 안저 카메라, OCT 형(type) 안저 카메라 등을 포함할 수 있다. 상기 안저영상 (fundus image)은 망막 안저영상(retinal fundus image)을 포함한다.The fundus camera includes various fundus cameras capable of acquiring fundus images. For example, the fundus camera may include a mydriatic fundus camera, a non-mydriatic fundus camera, an OCT type fundus camera, and the like. The fundus image includes a retinal fundus image.

일 실시예에서 영상 획득부(100)는 동일한 대상자에 대해 제1 시점에서 촬영한 제1 안저영상과 제2 시점에서 촬영한 제2 안저영상을 획득할 수도 있다. 예를 들어, 제2 시점이 제1 시점으로부터 일정 시간이 지난 시점일 수도 있다. In an embodiment, the image acquisition unit 100 may acquire a first fundus image captured at a first time point and a second fundus image captured at a second time point for the same subject. For example, the second time point may be a time point that has elapsed from the first time point.

본 출원의 제1 측면에 따른 특정 실시예들에서, 상기 제1 안저영상과 제2 안저영상은 대상자의 안구 영역 전체 중 특정 서브 영역을 촬영한 안저영상일 수도 있다. In certain embodiments according to the first aspect of the present application, the first fundus image and the second fundus image may be fundus images obtained by photographing a specific sub-region among the entire eye region of the subject.

영상 획득부(100)는 대상자의 양안 안저영상 또는 단안 안저영상을 제1 안저영상 또는 제2 안저영상으로 획득할 수도 있다. 예를 들어, 영상 획득부(100)는 제1 양안 안저영상의 쌍을 획득할 수도 있다. 영상 획득부(100)는 제1 단안 안저영상을 획득할 수도 있다. 영상 획득부(100)는 제2 양안 안저영상의 쌍을 획득할 수도 있다. 영상 획득부(100)는 제2 단안 안저영상을 획득할 수도 있다. The image acquisition unit 100 may acquire a binocular fundus image or a monocular fundus image of the subject as a first fundus image or a second fundus image. For example, the image acquisition unit 100 may acquire a pair of first binocular fundus images. The image acquisition unit 100 may acquire a first monocular fundus image. The image acquisition unit 100 may acquire a pair of second binocular fundus images. The image acquisition unit 100 may acquire a second monocular fundus image.

또한, 영상 획득부(10)는 안저영상과 관련된 데이터를 획득할 수 있다. 예를 들어, 안저영상과 관련된 데이터는 안저영상의 대상자를 식별할 수 있는 대상자 식별정보(예컨대, 성명, 신원 정보, 식별자 등), 촬영 시점, 및/또는 촬영 기기 관련 정보 등을 포함할 수 있다. 또한, 획득된 안저영상이 좌안의 안저영상인지, 우안의 안저영상인지 여부를 나타내는 레이블 데이터(rabel data)를 더 획득할 수도 있다. Also, the image acquisition unit 10 may acquire data related to the fundus image. For example, the data related to the fundus image may include subject identification information (eg, name, identity information, identifier, etc.) capable of identifying the subject of the fundus image, a photographing time, and/or information related to a photographing device. . In addition, label data indicating whether the obtained fundus image is the fundus image of the left eye or the fundus image of the right eye may be further acquired.

영상 획득부(100)는 대상자의 안저영상 및/또는 안저영상과 관련된 데이터를 정합부(300)에 제공한다. 또한, 영상 획득부(100)는 안저영상을 제공하면서 해당 영상에 관련된 데이터를 함께 제공할 수도 있다. The image acquisition unit 100 provides the fundus image and/or data related to the fundus image of the subject to the matching unit 300 . Also, the image acquisition unit 100 may provide data related to the corresponding image while providing the fundus image.

일 실시예에서 영상 획득부(100)는 동일한 대상자에 대해 제1 시점에서 촬영한 제1 안저영상과 제2 시점에서 촬영한 제2 안저영상을 정합부(300)에 제공할 수도 있다. In an embodiment, the image acquisition unit 100 may provide the matching unit 300 with a first fundus image captured at a first time point and a second fundus image captured at a second time point for the same subject.

정합부(300)는 대상자의 다수의 안저영상을 정합하여 정합 영상을 생성한다. 예를 들어, 정합부(300)는 제1 안저영상을 제2 안저영상에 정합할 수도 있다. The matching unit 300 generates a registered image by registering a plurality of fundus images of the subject. For example, the matching unit 300 may register the first fundus image with the second fundus image.

일 실시예에서, 정합부(300)는 제1 및 제2 안저영상의 혈관 영역에 기초하여 제1 안저영상과 제2 안저영상을 정합할 수도 있다. 이를 위해, 정합부(300)는 안저영상에서 혈관 영역을 추출할 수도 있다. 특정 실시예들에서, 정합부(300)는 정합을 위해 혈관 마스크를 생성할 수도 있다. In an embodiment, the matching unit 300 may register the first fundus image and the second fundus image based on the blood vessel regions of the first and second fundus images. To this end, the matching unit 300 may extract a blood vessel region from the fundus image. In certain embodiments, the registration unit 300 may generate a vascular mask for registration.

안저 변화 검출부(500)는 정합 영상을 이용하여 안저 변화를 검출한다. 상기 안저 변화는 안저 변화 발생 여부, 안저 변화량 등을 포함할 수도 있다. 상기 안저 변화량은, 예를 들어, 면적 변화, 색상 변화 등을 포함할 수도 있다. The fundus change detection unit 500 detects a fundus change using the matched image. The fundus change may include whether a fundus change occurs, an amount of fundus change, and the like. The fundus change amount may include, for example, an area change, a color change, and the like.

일 실시예에서, 안저 변화 검출부(500)는 제1 안저영상 내 관심영역과 제2 안저영상 내 관심영역에 기초하여 안저 변화를 검출할 수도 있다. 각각의 관심영역은 정합 영상을 기준으로 결정된다. 예를 들어, 안저 변화 검출부(500)는 정합 영상의 좌표를 기준으로 제1 안저영상의 관심영역을 검출할 수도 있다. In an embodiment, the fundus change detector 500 may detect a fundus change based on the ROI in the first fundus image and the ROI in the second fundus image. Each ROI is determined based on the matched image. For example, the fundus change detector 500 may detect the ROI of the first fundus image based on the coordinates of the matched image.

안저 변화 검출부(500)는 안저영상 내 일부로부터 안저영상의 관심영역 영상을 생성함으로써, 관심영역을 검출할 수도 있다. 그러면, 안저 변화 검출부(500)는 두 개의 관심영역 영상을 비교하여 안저 변화를 검출할 수도 있다. The fundus change detector 500 may detect the ROI by generating an ROI image of the fundus image from a portion of the fundus image. Then, the fundus change detection unit 500 may detect the fundus change by comparing two ROI images.

제1 시점에 촬영된 제1 양안 안저 사진의 쌍과 제2 시점에 촬영된 제2 양안 안저 사진의 쌍을 이용하는 경우, 상기 장치(10)는 대응하는 안구별로 전술한 동작을 수행할 수도 있다. 예를 들어, 상기 장치(10)는 좌안의 제1 안저 사진과 좌안의 제2 안저 사진을 정합하여 안저 변화를 검출하거나, 또는 우안의 제1 안저 사진과 우안의 제2 안저 사진을 정합하여 안저 변화를 검출할 수도 있다. When the pair of the first pair of binocular fundus photos taken at the first time point and the second pair of binocular fundus photos captured at the second time point are used, the apparatus 10 may perform the above-described operation for each corresponding eye. For example, the device 10 detects a fundus change by matching the first fundus photo of the left eye and the second fundus photo of the left eye, or matching the first fundus photo of the right eye and the second fundus photo of the right eye to fundus Changes can also be detected.

이러한 정합부(300) 및 안저 변화 검출부(500)의 동작에 대해서는 아래의 도 2 등을 기초로 보다 상세하게 서술한다.The operation of the matching unit 300 and the fundus change detecting unit 500 will be described in more detail based on FIG. 2 and the like below.

본 출원의 다른 일 측면에 따른 안저 변화 검출 방법은 프로세서를 포함한 컴퓨팅 장치(예를 들어, 도 1의 장치(10))에 의해 수행될 수도 있다. 이하, 설명의 명료성을 위해, 상기 도 1의 장치(10)에 의해 수행되는 실시예들에 기초하여 본 출원을 보다 상세하게 서술한다. The fundus change detection method according to another aspect of the present application may be performed by a computing device including a processor (eg, the device 10 of FIG. 1 ). Hereinafter, for clarity of explanation, the present application will be described in more detail based on embodiments performed by the apparatus 10 of FIG. 1 .

도 2는, 본 출원의 일 실시예에 따른, 안저 변화 검출 방법의 흐름도이다. 2 is a flowchart of a fundus change detection method according to an embodiment of the present application.

도 2를 참조하면, 상기 안저 변화 검출 방법은: 대상자의 안구를 촬영한 안저영상을 획득하는 단계(S100))를 포함한다. 상기 단계(S100))는 제1 시점에서 대상자의 안구를 촬영한 제1 안저영상을 획득하는 단계를 포함한다. 상기 단계(S100))는 제2 시점에서 대상자의 안구를 촬영하여 제2 안저영상을 획득하는 단계를 포함한다.Referring to FIG. 2 , the method for detecting fundus changes includes: acquiring a fundus image obtained by photographing the subject's eye (S100)). The step (S100)) includes acquiring a first fundus image obtained by photographing the subject's eyeball at a first time point. The step (S100)) includes acquiring a second fundus image by photographing the subject's eyeball at a second time point.

또한, 제1 안저영상과 제2 안저영상에 촬영 영역은 일부 또는 전부를 공유할 수도 있다. 제1 안저영상과 제2 안저영상은 반드시 촬영 영역이 일치하는 것이 요구되지 않는다. In addition, some or all of the photographing area may be shared in the first fundus image and the second fundus image. The first fundus image and the second fundus image are not necessarily required to have identical photographing regions.

도 3은, 본 출원의 일 실시예에 따른, 입력 안저영상의 쌍을 도시한 도면이다. 3 is a diagram illustrating a pair of input fundus images according to an embodiment of the present application.

예를 들어, 도 3의 상단에 도시된 바와 같이 하나의 안저영상(예컨대, 제1 안저영상)은 시신경 유두(optic disc) 부분을 포커싱 중심으로 촬영한 안저영상일 수도 있다. 도 3의 하단에 도시된 바와 같이 다른 안저영상(예컨대, 제2 안저영상)은 황반부오목(foveolar) 부분을 포커싱 중심으로 촬영한 안저영상일 수도 있다. 또한, 그 반대일 수도 있다. For example, as shown in the upper part of FIG. 3 , one fundus image (eg, the first fundus image) may be a fundus image obtained by focusing an optic disc part. As shown in the lower part of FIG. 3 , another fundus image (eg, the second fundus image) may be a fundus image obtained by focusing a foveolar part. Also, vice versa.

다시 도 2를 참조하면, 상기 안저 변화 검출 방법은: 제1 안저영상 및 제2 안저영상의 특징점에 기초하여 상기 제1 안저영상과 제2 안저영상을 정합하는 단계(S300)를 포함한다. Referring back to FIG. 2 , the method for detecting fundus changes includes: matching the first fundus image with the second fundus image based on feature points of the first fundus image and the second fundus image ( S300 ).

도 4는, 본 출원의 일 실시예에 따른, 정합 과정의 흐름도이다. 4 is a flowchart of a registration process according to an embodiment of the present application.

도 4를 참조하면, 상기 단계(S300)는 안저영상 내 특징점 기반 매칭을 통해 제1 안저영상과 제2 안저영상을 정합하는 단계(S310)를 포함할 수도 있다. Referring to FIG. 4 , the step S300 may include matching the first fundus image and the second fundus image through feature point-based matching in the fundus image ( S310 ).

단계(S310)는 안저영상 내 특징점을 추출하는 단계를 포함할 수도 있다. 상기 특징점은 영상을 매칭하는데 있어서 주위 배경과 구분되면서 식별이 용이한 지점을 포함한다. Step S310 may include extracting feature points in the fundus image. The feature point includes a point that is easily identified while being distinguished from the surrounding background in matching the image.

일 실시예에서, 특징점은 혈관과 관련된 특징점을 포함할 수도 있다. 예를 들어, 혈관 형상 또는 에지에 포함된 특징점을 포함할 수도 있다. 일부 실시예에서, 상기 안저영상 내 특징점은 추출된 혈관, 예컨대 혈관 마스크의 특징점을 포함할 수도 있다. In an embodiment, the feature point may include a feature point related to a blood vessel. For example, a feature point included in the shape of a blood vessel or an edge may be included. In some embodiments, the feature points in the fundus image may include extracted blood vessels, for example, feature points of a blood vessel mask.

단계(S310)에서 특징 서술자(descriptor) 기반 다양한 특징 추출 알고리즘을 통해 입력영상(예컨대, 제1 혈관 마스크)에서 특징점을 추출할 수도 있다. 상기 특징 추출 알고리즘은, 예를 들어 DoG(Difference of Gaussian)를 기반으로 영상 축 및/또는 스케일 축으로 코너성이 극대인 점을 추출하는 SIFT(Scale Invariaant Feature Trnasform)을 포함할 수도 있으나, 이에 제한되진 않는다. 단계(S310)에서 다수의 특징점을 포함한 특징점 세트가 추출될 수도 있다. In step S310, feature points may be extracted from the input image (eg, the first blood vessel mask) through various feature extraction algorithms based on a feature descriptor. The feature extraction algorithm may include, for example, a Scale Invariaant Feature Trnasform (SIFT) that extracts a point having a maximum cornerity on an image axis and/or a scale axis based on Difference of Gaussian (DoG), but is limited thereto. it doesn't happen A feature point set including a plurality of feature points may be extracted in step S310 .

상기 단계(S310)에서 특징점 기반 매칭은 픽셀 도메인에서 수행될 수도 있다.In step S310, the feature point-based matching may be performed in the pixel domain.

상기 단계 (S310)에서, 상기 제1 안저영상으로부터 추출된 제1 특징점 세트와 상기 제1 안저영상으로부터 추출된 제2 특징점 세트를 각각 강체 정합(rigid registration)함으로써, 제1 안저영상과 제2 안저영상을 정합할 수도 있다. In the step S310, the first fundus image and the second fundus image by rigid registration of the first feature point set extracted from the first fundus image and the second feature point set extracted from the first fundus image, respectively You can also match images.

일 실시예에서, 상기 단계(S310)는, 원근 변환 행렬을 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합하는 단계를 포함할 수도 있다. 일부 실시예에서, 상기 단계(S310)는 RANSAC 알고리즘을 더 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합할 수도 있다. 예를 들어, 원근 변환 행렬을 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합하는 과정에서, RANSAC 알고리즘을 통해 각 세트의 특징점 간의 매칭도를 최대화하는 값을 산출함으로써, 특징점 기반 매칭을 수행할 수도 있다. In an embodiment, the step S310 may include matching the first feature point set and the second feature point set using a perspective transformation matrix. In some embodiments, the step S310 may further use the RANSAC algorithm to match the first set of key points and the second set of key points. For example, in the process of matching the first feature point set and the second feature point set using the perspective transformation matrix, a value that maximizes the degree of matching between the feature points of each set is calculated through the RANSAC algorithm to perform feature point based matching. may be

도 5a 및 도 5 b는, 본 출원의 일 실시예에 따른, 혈관의 특징점에 기초한 정합 결과를 도시한 도면이다. 5A and 5B are diagrams illustrating matching results based on feature points of blood vessels, according to an embodiment of the present application.

도 5a 및 도 5b를 참조하면, 혈관의 특징점에 기초하여 제1 안저영상과 제2 안저영상이 정합된다(S310).Referring to FIGS. 5A and 5B , the first fundus image and the second fundus image are matched based on the feature points of blood vessels ( S310 ).

또한 도 5b를 참조하면, 혈관의 특징점을 매칭하여 제1 안저영상과 제2 안저영상이 정합된, 도 5a의 결과를 시각화한 정합영상을 획득할 수도 있다(S310). Also, referring to FIG. 5B , by matching the feature points of blood vessels, a registered image in which the first fundus image and the second fundus image are registered and visualized as a result of FIG. 5A may be obtained ( S310 ).

다시 도 4를 참조하면, 상기 단계(S300)는: 안저영상에서 혈관 영역을 추출하는 단계를 포함(S330)한다. 상기 단계(S330)는 제1 안저영상에서 혈관 영역을 추출하는 단계; 및 제2 안저영상에서 혈관 영역을 추출하는 단계를 포함한다. 단계(S330)에서는 혈관을 추출하기 위해 혈관 영역에 대응한 형상을 갖는 마스크(이하, “혈관 마스크”)를 생성할 수도 있다. 상기 혈관 마스크는 안저영상 내 적어도 일부의 혈관의 외곽선을 포함할 수도 있다. 또한, 상기 혈관 마스크는 혈관 외부와 혈관 영역이 시각적으로 구별되도록 구성될 수도 있다. Referring back to FIG. 4 , the step ( S300 ) includes: extracting a blood vessel region from the fundus image ( S330 ). The step (S330) may include extracting a blood vessel region from the first fundus image; and extracting the blood vessel region from the second fundus image. In step S330 , a mask having a shape corresponding to the blood vessel region (hereinafter, “vessel mask”) may be created in order to extract blood vessels. The blood vessel mask may include an outline of at least some blood vessels in the fundus image. In addition, the blood vessel mask may be configured to visually distinguish the outside of the blood vessel and the blood vessel region.

일 실시예에서, 상기 혈관 영역은 안저영상 내 영역 특성에 기초하여 학습된 기계 학습 모델을 이용하여 안저영상으로부터 추출된다. 상기 딥러닝 모델은 입력되는 안저영상 내부 영역의 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된다. In an embodiment, the blood vessel region is extracted from the fundus image using a machine learning model learned based on region characteristics in the fundus image. The deep learning model is trained to output blood vessels in the inner region of the fundus image as input as a Vessel Probaibility Map.

상기 혈관 추출 모델은 딥러닝 구조를 갖는 기계 학습 모델로서, 특징 추출 레이어; 및 분류 레이어를 포함할 수도 있다. The blood vessel extraction model is a machine learning model having a deep learning structure, comprising: a feature extraction layer; and a classification layer.

상기 특징 추출 레이어는 입력영상의 부분을 혈관 클래스로 분류하는데 사용되는 특징을 추출하도록 구성된다. 상기 혈관 추출 모델이 CNN (Convolutional Neural Network) 기반 모델인 경우, 상기 특징 추출 레이어는 컨볼루션 레이어 및/또는 풀링 레이어를 포함할 수도 있다. The feature extraction layer is configured to extract features used to classify a portion of an input image into a blood vessel class. When the blood vessel extraction model is a Convolutional Neural Network (CNN)-based model, the feature extraction layer may include a convolutional layer and/or a pooling layer.

분류 레이어는 추출된 특징에 기초하여 영상 내 부분(예컨대, 픽셀 또는 픽셀 집합)이 혈관 클래스로 분류될 확률을 산출하도록 구성된 분류 레이어를 포함한다. 그러면, 안저영상 내 픽셀별로 해당 픽셀이 혈관일 확률을 포함한 혈관 확률맵이 산출된다. The classification layer includes a classification layer configured to calculate a probability that a portion (eg, a pixel or a set of pixels) in an image is classified into a blood vessel class based on the extracted features. Then, for each pixel in the fundus image, a blood vessel probability map including the probability that the corresponding pixel is a blood vessel is calculated.

단계(S330)에서 산출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 산출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. A blood vessel shape is determined based on the blood vessel probability map calculated in step S330 . In certain embodiments, a mask corresponding to a blood vessel shape based on the calculated blood vessel probability map may be generated as an eye blood vessel mask.

일부 실시예들에서, 분류 레이어는 산출된 확률에 기초하여 혈관 클래스와 비-혈관 클래스로 분류하도록 더 구성될 수도 있다. 이 경우, 단계(S330)에서 혈관 클래스로 분류된 픽셀로 이루어진 혈관 영역의 영상을 생성할 수도 있다. In some embodiments, the classification layer may be further configured to classify into a vascular class and a non-vascular class based on the calculated probability. In this case, an image of a blood vessel region including pixels classified into blood vessel classes may be generated in step S330 .

상기 혈관 추출 모델은 CNN (Convolutional Neural Network) 기반의 다양한 구조를 가질 수도 있다. 상기 혈관 추출 모델은 입력영상에서 특징을 추출하는 레이어; 및 추출된 특징에 기초하여 영상 내 부분(예컨대, 픽셀)이 혈관 클래스로 분류될 확률을 산출하도록 구성된 분류 레이어를 포함한다. 상기 혈관 추출 모델은, 예를 들어 SSANet, 또는 Rential SSANet 기반 구조를 포함할 수도 있으나, 이에 제한되진 않는다. The blood vessel extraction model may have various structures based on a Convolutional Neural Network (CNN). The blood vessel extraction model includes: a layer for extracting features from an input image; and a classification layer configured to calculate a probability that a portion (eg, a pixel) in an image is classified into a blood vessel class based on the extracted features. The blood vessel extraction model may include, for example, an SSANet, or a Rential SSANet-based structure, but is not limited thereto.

상기 혈관 추출 모델은 복수의 훈련 안저영상(training fundus image)를 포함한 훈련 샘플을 이용하여, 영상 내 부분(예컨대, 픽셀)이 혈관 그룹에 속할 확률을 산출하도록 학습된다. 상기 혈관 추출 모델은 입력영상 부분(예컨대, 픽셀)의 클래스 분류를 위한 확률 값 산출 또는 클래스 분류를 학습 목적으로 갖는 다양한 학습 과정에 의해 학습된 모델일 수도 있다. The blood vessel extraction model is trained to calculate a probability that a portion (eg, a pixel) in an image belongs to a blood vessel group by using a training sample including a plurality of training fundus images. The blood vessel extraction model may be a model learned by various learning processes having the purpose of class classification or calculating a probability value for class classification of an input image part (eg, pixel).

예를 들어, 안저영상을 입력으로 갖는 혈관 추출 모델의 파라미터는 해당 모델의 비용 함수가 최소가되는 방향으로 업데이트되어 학습될 수도 있다. 여기서, 비용 함수는 모델이 산출한 결과 값과 실제 결과 값의 차이를 나타낸다. 이러한 파라미터의 학습은 통상적으로 최적화로 지칭된다. 파라미터의 최적화는, 예를 들어 ADAM(Adaptive Moment Estimation), Momentum, NAG(Nesterov Accelerated Gradient), Adagrad(Adaptive Gradient), RMSProp, 다양한 경사 하강(gradient discent) 방식을 포함할 수도 있다. For example, parameters of a blood vessel extraction model having a fundus image as an input may be updated and learned in a direction in which the cost function of the corresponding model is minimized. Here, the cost function represents the difference between the result value calculated by the model and the actual result value. Learning these parameters is commonly referred to as optimization. The parameter optimization may include, for example, Adaptive Moment Estimation (ADAM), Momentum, Nesterov Accelerated Gradient (NAG), Adaptive Gradient (Adagrad), RMSProp, and various gradient descent schemes.

이러한 학습 과정을 통해 혈관 추출 모델은 안저영상에서 실제 혈관에 대해서는 보다 높은 확률 값을 산출하고 비-혈관에 대해서는 보다 낮은 확률 값을 산출하는 능력이 강화되도록 학습된다. 또한, 확률 값 산출 능력의 강화로 인해, 혈관 영역의 식별 능력도 강화될 수도 있다. Through this learning process, the blood vessel extraction model is trained to enhance the ability to calculate a higher probability value for actual blood vessels and a lower probability value for non-vascular vessels in the fundus image. In addition, due to the enhancement of the probability value calculation capability, the blood vessel region identification capability may also be enhanced.

단계(S330)에서 추출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 추출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. A blood vessel shape is determined based on the blood vessel probability map extracted in step S330. In certain embodiments, a mask corresponding to a blood vessel shape based on the extracted blood vessel probability map may be generated as an eye blood vessel mask.

또한, 일 실시예에서, 단계(S330)는 추출된 혈관 확률맵에 기초한 혈관 형상을 후처리하는 단계를 더 포함할 수도 있다. 그러면, 산출된 혈관 확률맵에만 기초한 혈관 마스크 보다 더 정확하고 개선된 혈관 마스크를 생성할 수도 있다. 후처리 과정은 이진화 및/또는 혈관 형상의 경계를 재정의하는 과정을 포함한다. Also, in an embodiment, step S330 may further include post-processing the shape of the blood vessel based on the extracted blood vessel probability map. Then, it is possible to generate a more accurate and improved blood vessel mask than the blood vessel mask based only on the calculated blood vessel probability map. Post-processing includes binarization and/or redefining the boundaries of vessel shape.

도 6a 내지 도 6d는, 추출된 혈관 마스크를 후처리한 결과를 도시한 도면이다.6A to 6D are diagrams illustrating the results of post-processing the extracted blood vessel mask.

상기 일 실시예에서, 상기 후처리 단계는: 입력영상에 이중 역치 기법(hysteresis thresholding)을 적용해 이진화하여 이진화 혈관 마스크(binarized fundus mask)를 생성하는 단계를 포함할 수도 있다. In the exemplary embodiment, the post-processing step may include: generating a binarized fundus mask by applying a hysteresis thresholding to the input image and binarizing it.

도 6a에 도시된 바와 같이, 단계(S330)에서 산출된 혈관 확률맵에 기초한 혈관 영역의 영상이 생성될 수도 있다. 도 6a의 영상에 이중 영치 기법이 적용된다. As shown in FIG. 6A , an image of a blood vessel region based on the blood vessel probability map calculated in step S330 may be generated. The double image technique is applied to the image of FIG. 6A .

이중 역치 기법은 상한 임계 값과 하한 임계 값을 이용하여 타겟 데이터를 결정하는 기법이다. 가는 혈관(filamentray vessels)이 영상에서 끊겨보이는 오차를 방지하기 위해, 단계(S300)에서 입력영상의 혈관 영역을 미리 설정된 제1 임계 값(τl)과 제2 임계 값(τh)을 기준으로 이진화한다. 제2 임계 값(τh)은 제1 임계 값(τl) 보다 높은 임계 값일 수도 있다. 더 낮은 임계 값(τl) 보다 높은 확률을 갖는 픽셀이 성장하는 지역에 대한 시드로서 제2 임계 값(τh)을 넘는 픽셀이 사용된다. 제1 임계 값과 제2 임계 값은, 예컨대 τ1 = 0. 1, τh = 0.75 등과 같은, 경험적인 값일 수도 있다. The double threshold technique is a technique for determining target data using an upper threshold and a lower threshold. In order to prevent the error that filamentray vessels are cut off in the image, the blood vessel region of the input image is binarized based on the preset first threshold value (τl) and the second threshold value (τh) in step S300 . The second threshold value τh may be a higher threshold value than the first threshold value τl. Pixels exceeding the second threshold value τh are used as seeds for regions in which pixels with a higher probability than the lower threshold value τl grow. The first threshold value and the second threshold value may be empirical values, such as, for example, τ1 = 0.1, τh = 0.75, and the like.

이러한 이중 임계 기법에 의해, 혈관 형상의 경계가 제1 임계 값 보다 높은 확률을 갖는 픽셀의 영역으로 성장된다. 성장 결과에 기초하여 이진화 혈관 마스크가 생성될 수도 있다. By this double-threshold technique, the boundary of the vessel shape is grown as a region of the pixel having a higher probability than the first threshold value. A binarized vascular mask may be generated based on the growth results.

또한, 상기 후처리 단계는: 안저영상의 이미지 그라디언트에 대한 혈관 경계를 정렬하기 위해 혈관 마스크를 미세 조정하는 단계를 포함할 수도 있다. In addition, the post-processing step may include: fine-tuning the blood vessel mask to align the vessel boundary with respect to the image gradient of the fundus image.

이를 위해, 상기 후처리 단계는: 이진화 영상에서 혈관과 외부 경계 사이의 밸리(valley)를 검출하는 단계; 및 상기 밸리 내부를 채우는 단계를 포함할 수도 있다. 이진화 영상을 반전(inverted)하면, 혈관과 외부 경계 사이의 영역이 보다 선명하게 구분된다. 예를 들어, 도 6b에는 혈관 영역으로 동일하게 표현되었던 다수의 영역들(예컨대 혈관 내부, 외부 경계, 및/또는 혈관 두께 등을 나타낸 혈관과 외부 경계 사이의 영역)이 도 6c에 도시된 바와 같이 보다 선명하게 구분된다. 이러한 반전된 이진화 영상에서 혈관과 외부 경계 사이의 밸리 영역을 검출하고, 밸리 영역의 내부를 채우는 영상 처리가 수행된다. 그려면 도 6a의 부분확대도에 도시된 초기 혈관 마스크에는 혈관 사이가 연결되어 있었던 오차 부분이 도 6d에 도시된 바와 같이 제거되고, 결국 혈관 확률맵에만 기초한 마스크를 개선하여 최종적인 혈관 마스크로 생성할 수도 있다. 단계(S330)에서 밸리 내부를 채우는 과정은, 예를 들어, 이미지 침식(erosion) 처리를 통해서 수행될 수도 있다. To this end, the post-processing step may include: detecting a valley between a blood vessel and an external boundary in a binarized image; and filling the inside of the valley. If the binarized image is inverted, the region between the blood vessel and the outer boundary is more clearly distinguished. For example, as shown in FIG. 6C , a plurality of regions (eg, a region between a blood vessel and an external boundary indicating a blood vessel inner, outer boundary, and/or blood vessel thickness, etc.) that were identically expressed as a blood vessel region in FIG. 6B . are more clearly distinguished. In the inverted binarized image, a valley region between the blood vessel and the outer boundary is detected, and image processing is performed to fill the inside of the valley region. To do this, in the initial blood vessel mask shown in the partially enlarged view of FIG. 6A, the error part that was connected between the blood vessels is removed as shown in FIG. may be The process of filling the valley inside in step S330 may be performed, for example, through image erosion processing.

이러한 단계(S330)의 과정들이 제1 안저영상 및/또는 제2 안저영상에 적용되면, 제1 안저영상 및/또는 제2 안저영상의 혈관 마스크가 획득된다(S330). When the processes of step S330 are applied to the first fundus image and/or the second fundus image, the vascular mask of the first fundus image and/or the second fundus image is obtained (S330).

다시 도 5를 참조하면, 상기 단계(S300)는, 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합하여 제1 안저영상과 제2 안저영상을 정합하는 단계(S350)를 포함할 수도 있다. 특정 실시예들에서, 상기 단계(S350)는 단계(S310)의 특징점 기반 정합 이후에 수행될 수도 있다. Referring back to FIG. 5 , the step ( S300 ) may include a step ( S350 ) of matching the first fundus image and the second fundus image by deforming and matching the first blood vessel mask and the second blood vessel mask. In certain embodiments, the step S350 may be performed after the feature point-based matching of the step S310.

변형 정합(deformable registration)은 정합 대상을 자유롭게 변형 가능한 비선형 형태의 정합이다. 예를 들어, 직선의 정합 대상을 곡선, 사각형 또는 원형 등의 형태로 변형 가능할 수도 있다. Deformable registration is a non-linear form of registration in which a registration object can be freely deformed. For example, a matching target of a straight line may be deformable in a shape such as a curve, a rectangle, or a circle.

단계(S350)에서 수행되는 변형 정합 알고리즘은, 예를 들어, B-Spline 알고리즘을 포함할 수도 있다. B-Spline 알고리즘은 두 영상 간의 픽셀 유사도가 높아지는 방향으로 반복적으로 최적화하는 정합 알고리즘이다. 가장 높은 유사도를 갖게 하는 파라미터를 결정하여 최적화된 정합 결과를 산출한다. The transformation matching algorithm performed in step S350 may include, for example, a B-Spline algorithm. The B-Spline algorithm is a matching algorithm that iteratively optimizes in the direction of increasing pixel similarity between two images. An optimized matching result is calculated by determining the parameter that has the highest similarity.

일 실시예에서, 단계(S350)에서 제1 및 제2 안저영상을 정합하기 위해, 제1 혈관 마스크 및 제2 혈관 마스크를 변형 정합할 수도 있다. 단계(S200)에서 전술한 바와 같이, 제1 혈관 마스크 및 제2 혈관 마스크가 혈관 추출 모델에 의해 생성된 경우, 변형 정합의 입력은 보다 정교하게 추출된 혈관 영역을 기반으로 수행된다. In an embodiment, in order to register the first and second fundus images in operation S350, the first blood vessel mask and the second blood vessel mask may be deformed and matched. As described above in step S200 , when the first blood vessel mask and the second blood vessel mask are generated by the blood vessel extraction model, the deformation registration is performed based on the more precisely extracted blood vessel region.

예를 들어, 제1 혈관 마스크를 소스형상으로 제2 혈관 마스크를 타겟형상으로 사용하여 B-Spline 알고리즘을 적용하면, 제1 혈관 마스크의 하나 이상의 제어점을 추출하고 제1 혈관 마스크의 형상을 제2 혈관 마스크와의 픽셀 유사도롤 극대화하는 최적화 곡선을 갖도록 변형할 수도 있다. 그러면, 제1 혈관 마스크와 제2 혈관 마스크가 특징점 기반 정합 결과에 존재하는 오차들이 미세 조정되도록 재-정합될 수도 있다. For example, if the B-Spline algorithm is applied using the first blood vessel mask as the source shape and the second blood vessel mask as the target shape, one or more control points of the first blood vessel mask are extracted and the shape of the first blood vessel mask is set to the second shape. It can also be modified to have an optimization curve that maximizes the pixel similarity to the blood vessel mask. Then, the first blood vessel mask and the second blood vessel mask may be re-registered so that errors present in the feature point-based registration result are finely adjusted.

도 7 a 및 도 7b는, 본 출원의 일 실시예에 따른, 혈관 마스크를 변형 정합한 결과를 도시한 도면이다. 7A and 7B are diagrams illustrating a result of deforming and matching a blood vessel mask according to an embodiment of the present application.

도 7a를 참조하면, 단계(S300)에서 혈관 마스크를 변형 정합하여 특징점 기반의 정합 결과에서 존재하는 오류들을 미세 조정함으로써 보다 정교한 정합 결과를 획득할 수도 있다. Referring to FIG. 7A , a more sophisticated matching result may be obtained by performing deformation matching of the blood vessel mask in step S300 to fine-tune errors existing in the feature point-based matching result.

강체 정합만 수행될 경우 혈관의 일부는 정확하게 매칭되지 않을 수도 있다(S310). 예를 들어, 도 5a에 도시된 바와 같이, 특징점 기반 정합만을 수행한 경우에는 시신경 유두 부분에서 멀어질수록 정합이 상대적으로 정교하게 되지 않았을 수도 있다. 그러나, 도 7a에 도시된 바와 같이 변형 정합이 더 적용된 경우 제1 안저영상과 제2 안저영상이 비-강체 정합되어, 정교한 정합 결과를 획득할 수도 있다(S350).When only rigid body matching is performed, a portion of blood vessels may not be accurately matched (S310). For example, as shown in FIG. 5A , when only feature point-based matching is performed, as the distance from the optic nerve head increases, the matching may not be relatively precise. However, as shown in FIG. 7A , when deformation matching is further applied, the first fundus image and the second fundus image may be non-rigidly registered to obtain a precise matching result ( S350 ).

또한, 도 7b에 도시된 바와 같이 미세 조정되도록 제1 안저영상과 제2 안저영상이 정합된 결과를 시각화한 정합영상을 획득할 수도 있다. Also, as shown in FIG. 7B , it is also possible to obtain a registered image that visualizes the result of the registration of the first fundus image and the second fundus image so as to be finely adjusted.

이와 같은 특징점 기반 정합 및 변형 정합으로 이루어진 이단 정합을 통해 보다 정확한 정합영상을 얻을 수도 잇다. A more accurate registered image may be obtained through two-stage registration consisting of such feature point-based registration and deformation registration.

상기 안저 변화 검출 방법은: 정합 영상을 기준으로 제1 안저영상과 제2 안저영상을 비교하여, 제1 시점으로부터 제2 시점까지의 안저 변화를 검출하는 단계(S500)를 포함한다. The method for detecting fundus changes includes: comparing a first fundus image with a second fundus image based on a matched image, and detecting a fundus change from a first time point to a second time point ( S500 ).

다시 도 2를 참조하면, 상기 안저 변화 검출 방법은: 단계(S500) 이전에, 정합 영상에서 관심영역을 검출하는 단계(S400)를 포함할 수도 있다 Referring back to FIG. 2 , the method for detecting a fundus change may include: before step S500 , detecting a region of interest from the matched image ( S400 ).

관심영역은 안저영상에서 유의미한 안저 변화가 검출되는 부분을 나타낸다. 일 실시예에서, 관심영역은 시신경 유두 부분, 황반 부분, 및/또는 혈관 부분을 포함할 수도 있다. 또한, 일부 실시예들에서, 관심영역은 이상소견 부분을 더 포함할 수도 있다. The region of interest indicates a portion in which a significant fundus change is detected in the fundus image. In an embodiment, the region of interest may include an optic disc portion, a macular portion, and/or a vascular portion. Also, in some embodiments, the region of interest may further include an abnormal finding portion.

관심영역이 시신경 유두 부분 및/또는 황반 부분을 포함한 경우, 상기 단계(S400)는 단계(S300)의 정합 영상을 제1 관심영역 추정 모델에 적용하는 단계를 포함한다. When the ROI includes the optic nerve head and/or the macula, the step S400 includes applying the matched image of the step S300 to the first ROI estimation model.

상기 제1 관심영역 추정 모델은 입력영상에서 특징을 추출하여 관심대상을 검출하도록 구성된다. 상기 제1 관심영역 추정 모델은 CNN 기반 구조를 포함하는 딥러닝 모델일 수도 있다. The first region of interest estimation model is configured to extract a feature from an input image to detect an object of interest. The first region of interest estimation model may be a deep learning model including a CNN-based structure.

일부 실시예들에서, 상기 제1 관심영역 추정 모델은 잔차 블록(Residual block)을 포함한 기계학습 모델일 수도 있다. 상기 잔차 블록은 깊은 구조(deep structure)를 갖는 CNN 기반 모델에 있어 기존의 스택 구조(stacked structure)에 일종의 스킵 연결(skip connection)(또는 숏컷(shortcut) 연결로 지칭됨)을 추가한 구조를 가진다. 잔차 블록에서는 입력이 x이면, 최종적으로 학습해야할 데이터는 H(x)이다. 상기 H(x)는 F(x) + x로서, F(x) = H(x) - x로 표현될 수 있다. 따라서, 잔차 블록은 가중치 레이어를 통해 쌓여진 출력 H(x)와 입력 간의 잔차(residual)를 학습함으로써 결과적으로 원래 학습을 의도한 결과 F(x)를 얻을 수 있다. 이와 같이, 잔차만 학습하면 되는 잔차 학습 블록 구조를 갖는 CNN 모델의 학습은 잔차 학습(residual learning)으로 지칭될 수 있다.In some embodiments, the first ROI estimation model may be a machine learning model including a residual block. The residual block has a structure in which a kind of skip connection (or referred to as a shortcut connection) is added to an existing stacked structure in a CNN-based model having a deep structure. . In the residual block, if the input is x, the final data to be learned is H(x). The H(x) is F(x) + x, which may be expressed as F(x) = H(x) - x. Therefore, the residual block learns the residual between the output H(x) and the input accumulated through the weight layer, and as a result, the result F(x) originally intended for learning can be obtained. As such, learning of a CNN model having a residual learning block structure that only needs to learn the residual may be referred to as residual learning.

상기 제1 관심영역 추정 모델은, 예를 들어, ResNet 기반 구조를 포함하는 모델일 수도 있으나, 이에 제한되진 않는다. The first region of interest estimation model may be, for example, a model including a ResNet-based structure, but is not limited thereto.

일 실시예에서, 상기 제1 관심영역 추정 모델은 정합 영상에서 시신경 유두 부분의 x좌표 및 y좌표 중 하나 이상 및/또는 상기 황반 부분의 x좌표 및 y좌표 중 하나 이상을 출력하도록 학습된 모델일 수도 있다. 예를 들어, 상기 제1 관심영역 추정 모델은 하나의 입력영상(예컨대, 정합 영상)에서 최대 4개의 좌표를 산출하도록 구성될 수도 있다. In an embodiment, the first region of interest estimation model is a model trained to output one or more of the x-coordinate and the y-coordinate of the optic disc part and/or at least one of the x-coordinate and the y-coordinate of the macular part in the matched image may be For example, the first region of interest estimation model may be configured to calculate a maximum of four coordinates from one input image (eg, a registered image).

상기 제1 관심영역 추정 모델은 시신경 유두 부분의 좌표에 기초하여 입력영상에서 시신경 유두 부분을 결정할 수도 있다. 또한, 상기 제1 관심영역 추정 모델은 황반 부분의 좌표에 기초하여 입력영상에서 황반 부분을 결정할 수도 있다. The first region of interest estimation model may determine the optic nerve head portion from the input image based on the coordinates of the optic nerve head portion. Also, the first region of interest estimation model may determine the macula portion from the input image based on the coordinates of the macula portion.

그러면, 정합 영상을 기준으로 제1 안저영상 내 관심영역의 위치 및 제2 안저영상 내 관심영역의 위치가 출력되고, 결국 정합 영상을 기준으로 제1 안저영상 내 관심영역와 제2 안저영상 내 관심영역이 검출될 수도 있다. Then, the position of the region of interest in the first fundus image and the position of the region of interest in the second fundus image are output based on the registered image, and eventually, the region of interest in the first fundus image and the region of interest in the second fundus image based on the registered image. This may be detected.

이러한 제1 관심영역 추정 모델의 학습 과정은 전술한 혈관 추출 모델과 유사하므로, 자세한 설명은 생략한다. Since the learning process of the first ROI estimation model is similar to the above-described blood vessel extraction model, a detailed description thereof will be omitted.

관심영역이 혈관 부분을 포함한 경우, 단계(S200)에서 추출된 혈관 마스크를 관심영역으로 결정하는 단계를 포함한다. 단계(S200)에서 추출된 혈관 마스크를 정합 영상의 좌표로 표현함으로써, 정합 영상을 기준으로 제1 안저영상 및 제2 안저영상에서 관심영역의 혈관 영역을 검출할 수도 있다. When the region of interest includes a blood vessel portion, determining the blood vessel mask extracted in step S200 as the region of interest is included. By expressing the blood vessel mask extracted in step S200 as coordinates of the matched image, the blood vessel region of the ROI may be detected in the first fundus image and the second fundus image based on the matched image.

관심영역이 이상소견 영역을 포함한 경우, 단계(S300)의 정합 영상을 제2 관심영역 추정 모델에 적용하는 단계를 포함한다.When the region of interest includes the region of abnormality, the step of applying the matched image of step S300 to the second region of interest estimation model is included.

상기 이상소견 영역은 안구 관련 질환이 발병할 경우 변화가 발생 가능한 후보 영역을 포함한다. 상기 이상소견 영역은, 예를 들어, 질환이 발병할 경우 활성화되는 영상 영역 위치를 포함할 수도 있다. 즉, 상기 이상소견 영역은 촬영된 안저영상 내에 실제로 이상이 나타나 이상소견 대상의 영역을 지칭하는 것이 아니다. The abnormal finding region includes a candidate region in which a change may occur when an eye-related disease occurs. The abnormal finding region may include, for example, a position of an image region activated when a disease occurs. That is, the abnormal finding region does not refer to the region of the abnormal finding target in which an abnormality actually appears in the captured fundus image.

단계(S400)에서 상기 정합된 제1 및 제2 안저영상을 제2 관심영역 추정 모델에 적용하여 상기 정합된 제1 및 제2 안저영상에서 관심영역의 위치를 각각 검출할 수도 있다. In step S400 , the positions of the regions of interest may be respectively detected in the matched first and second fundus images by applying the matched first and second fundus images to a second region of interest estimation model.

상기 제2 관심영역 추정 모델은, 입력된 안저영상이 질환 영상 그룹에 속하는지 여부를 분류하도록 학습된 기계 학습 모델이다. The second region of interest estimation model is a machine learning model trained to classify whether an input fundus image belongs to a disease image group.

일 실시예에서, 상기 제2 관심영역 추정 모델은, 컨볼루션 레이어를 통해 특징맵을 풀링 처리 GAP(global average pooling) 하고 채널별 가중치를 특징맵에 곱한 후에 합쳐(sum) CAM(Class Activation Map)을 산출하도록 구성될 수도 있다. 여기서, 채널은 완전연결 레이어의 입력 사이즈를 결정하는 요소이다. In an embodiment, the second region of interest estimation model performs global average pooling (GAP) pooling processing on a feature map through a convolutional layer, multiplies the feature map by a weight for each channel, and sums the feature map (Class Activation Map) It may be configured to calculate . Here, the channel is a factor that determines the input size of the fully connected layer.

다시 도 2를 참조하면, 상기 안저 변화 검출 방법은: 제1 및 제2 안저영역의 관심영역에 기초하여 안저 변화를 검출하는 단계(S500)를 포함한다. 단계(S500)에서 안저 변화를 검출하면 안저 변화 정보를 제공할 수도 있다.Referring back to FIG. 2 , the method for detecting a fundus change includes: detecting a fundus change based on the ROI of the first and second fundus regions ( S500 ). When a fundus change is detected in step S500, fundus change information may be provided.

상기 안저 변화는 제1 시점과 제2 시점 동안의 안저 상태 변화 여부를 포함한다. 일부 실시예에서, 상기 안저 변화는 안저 변화량을 더 포함할 수도 있다. The change of the fundus includes whether the state of the fundus changes during the first time point and the second time point. In some embodiments, the fundus change may further include a fundus change amount.

일 실시예에서, 단계(S500)는 상기 제1 및 제2 안저영상을 변화 검출 모델에 적용하여 안저 변화를 검출하는 단계를 포함할 수도 있다. 특정 실시예들에서, 안저 변화를 검출하기 위한 입력영상으로서 제1 및 제2 안저영상의 관심영역의 영상을 사용할 수도 있다. In an embodiment, step S500 may include detecting a fundus change by applying the first and second fundus images to a change detection model. In certain embodiments, images of the ROI of the first and second fundus images may be used as input images for detecting fundus change.

일 실시예에서, 상기 변화 검출 모델은 입력영상의 쌍이 조건 긍정 그룹 또는 조건 부정 그룹에 속하는 지를 분류하는, BCM(binary classification model)의 구조 및 기능을 갖도록 구성될 수도 있다. 입력은 관심영역 별 두 시점에서 촬영된 안저영상의 쌍이고, 출력은 변화의 유무를 나타낸다. In an embodiment, the change detection model may be configured to have the structure and function of a binary classification model (BCM) for classifying whether a pair of input images belongs to a conditionally positive group or a conditionally negative group. The input is a pair of fundus images taken at two viewpoints for each region of interest, and the output indicates the presence or absence of change.

도 8은, 본 출원의 일 실시예에 따른, 안저 변화를 검출하는 변화 검출 모델의 개념적인 네트워크 구조도이다. 8 is a conceptual network structure diagram of a change detection model for detecting a fundus change according to an embodiment of the present application.

도 8을 참조하면, 변화 검출 모델은: 특징 추출 레이어; 및 분류 레이어를 포함할 수도 있다. Referring to FIG. 8 , the change detection model includes: a feature extraction layer; and a classification layer.

특징 추출 레이어는 제1 및 제2 안저영상의 관심영역 영상의 쌍에서 제1 특징의 세트 및 제2 특징의 세트를 각각 추출하도록 구성된다. 상기 변화 검출 모델이 CNN 기반 구조를 갖는 경우, 특징 추출 레이어는 하나 이상의 컨볼루션 레이어(convolution layer)를 포함할 수도 있다. 또한, 특징 추출 레이어는 하나 이상의 풀링 레이어(pooling layer)를 더 포함할 수도 있다. The feature extraction layer is configured to extract the first feature set and the second feature set from the pair of region-of-interest images of the first and second fundus images, respectively. When the change detection model has a CNN-based structure, the feature extraction layer may include one or more convolution layers. In addition, the feature extraction layer may further include one or more pooling layers.

상기 제1 특징의 세트는 제1 안저영상의 관심영역의 영상으로부터 추출된 특징으로서, 상기 특징은 입력영상의 쌍이 안저 변화를 갖는 그룹에 속하는지를 분류하는 것에 관련된 영상 특징을 포함한다. The first set of features is a feature extracted from an image of a region of interest of the first fundus image, and the feature includes an image feature related to classifying whether a pair of input images belongs to a group having a fundus change.

또한, 상기 변화 검출 모델은: 상기 제1 및 제2 특징의 세트로부터 특징 간 상관 맵을 산출하는, 상관맵 생성 레이어를 더 포함할 수도 있다. In addition, the change detection model may further include: a correlation map generation layer, which calculates an inter-feature correlation map from the set of the first and second features.

상관맵 레이어는 특징 추출 레이어에서 추출된 제1 특징 세트와 제2 특징 세트로부터 기하학적 상관 맵(Geometric correlation map)을 산출하도록 구성된다. 제1 특징 세트와 제2 특징 세트의 상관 맵이 분류 레이어에 입력된다. The correlation map layer is configured to calculate a geometric correlation map from the first feature set and the second feature set extracted from the feature extraction layer. A correlation map of the first feature set and the second feature set is input to the classification layer.

분류 레이어는 추출된 특징에 기초하여 상기 제1 및 제2 안저영상의 쌍이 안저 변화를 갖는 그룹에 속하는지 분류하도록 구성된다. 분류 레이어는 CNN 레이어, 완전 연결 레이어(full connected layer) 및/또는 확률 레이어를 포함할 수도 있다. CNN 레이어 및 완전 연결 레이어는 상관맵으로부터 안저 변화의 유/무를 추정하도록 구성된다. The classification layer is configured to classify whether the pair of the first and second fundus images belongs to a group having a fundus change based on the extracted features. The classification layer may include a CNN layer, a fully connected layer, and/or a probability layer. The CNN layer and the fully connected layer are configured to estimate the presence/absence of fundus change from the correlation map.

확률 레이어는 이전 레이어(에컨대, 완전 연결 레이어)에서 출력된 출력 값에 기초하여 입력영상의 쌍이 변화가 있음을 나타내는 제1 그룹에 속할 확률을 산출하도록 구성된다. The probability layer is configured to calculate a probability that the pair of input images belongs to the first group indicating that there is a change based on an output value output from a previous layer (eg, a fully connected layer).

일부 실시예에서, 변화 검출 모델은 이전 레이어의 출력 값을 확률 레이어에 적용하기 이전에, 활성화 처리하도록 더 구성될 수도 있다. 예를 들어, 변화 검출 모델은 완전 연결 레이어를 통과한 결과에 sigmoid 함수를 적용한 뒤 그 결과를 확률 레이어에 입력할 수도 있다. In some embodiments, the change detection model may be further configured to perform activation processing before applying the output value of the previous layer to the probability layer. For example, the change detection model may apply the sigmoid function to the result that has passed through the fully connected layer, and then input the result to the probability layer.

변화 검출 모델은 확률 값에 기초하여 입력영상의 쌍을 제1 그룹 또는 제2 그룹으로 분류할 수도 있다. 변화 검출 모델은 확률 임계치에 기초하여 확률 값에 따른 그룹 분류를 수행할 수도 있다. 상기 확률 임계치는 학습에 의해 결정되는 파라미터이다. 예를 들어, 0.5를 초기 값으로 하여 학습 데이터에 따라 0.5 이상 또는 그 이하로 조정될 수도 있다. The change detection model may classify a pair of input images into a first group or a second group based on the probability value. The change detection model may perform group classification according to a probability value based on a probability threshold. The probability threshold is a parameter determined by learning. For example, by setting 0.5 as an initial value, it may be adjusted to 0.5 or more or less according to the training data.

이와 같이 단계(S500)에서 입력영상의 쌍이 제1 그룹으로 분류되면 안저 변화가 있는 것으로서 안저 변화가 검출된다. 반면, 단계(S500)에서 입력영상의 쌍이 제2 그룹으로 분류되면 안저 변화가 없는 것으로서 안저 변화가 검출되지 않는다. As such, when the pair of input images is classified into the first group in step S500, the fundus change is detected as having a fundus change. On the other hand, when the pair of input images is classified into the second group in step S500, there is no fundus change and no fundus change is detected.

또한, 단계(S500)는 영상 처리 알고리즘을 통해 안저 변화를 검출할 수도 있다. In addition, in step S500, a fundus change may be detected through an image processing algorithm.

다른 일 실시예에서, 상기 제1 안저영상 내 상기 검출된 관심영역과 상기 제2 안저영상 내 상기 검출된 관심영역의 색상을 픽셀 단위로 비교하여 변화를 검출하는 단계를 포함할 수도 있다. In another embodiment, the method may include detecting a change by comparing colors of the detected region of interest in the first fundus image and the detected region of interest in the second fundus image in units of pixels.

단계(S500)에서 정합 영상을 기준으로 서로 대응하는 제1 관심영역의 픽셀과 제2 관심영역의 픽셀 사이의, 픽셀 단위 변화를 검출하기 위해, 관심영역의 RGB 색상을 정규화할 수도 있다. RGB 정규화는, 예를 들어 histogram equalization 알고리즘을 통해 제1 관심영역 영상과 제2 관심영역 영상이 동일한 RGB 색상으로 정규화될 수도 있다. In operation S500 , the RGB color of the ROI may be normalized to detect a pixel-by-pixel change between the pixels of the first ROI and the second ROI corresponding to each other based on the matched image. For RGB normalization, for example, the first region of interest image and the second region of interest image may be normalized to the same RGB color through a histogram equalization algorithm.

일부 실시예들에서 단계(S500)는 정규화 이후, 감마 보정(Gamma correction)을 통해 일루미네이션(illumination)을 제거하는 단계를 더 포함할 수도 있다. In some embodiments, operation S500 may further include removing illumination through gamma correction after normalization.

그러면, 단계(S500)에서 정규화된 두 영상(에컨대, 제1 관심영역 영상 및 제2 관심영역 영상)을 이용해 픽셀 단위의 변화를 산출할 수도 있다. Then, the pixel-wise change may be calculated using the two normalized images (eg, the first region of interest image and the second region of interest image) in operation S500 .

상기 픽셀 단위의 변화는 변화의 유무 및/또는 변화량을 포함할 수도 있다. 상기 변화량은 변화 면적 또는 변화 색상을 포함할 수도 있다. The change in units of pixels may include the presence or absence of change and/or the amount of change. The change amount may include a change area or a change color.

이와 같이, 단계(S500)에서 안저 변화 검출은 영상 처리 기법 및/또는 딥러닝 모델을 이용하여 수행될 수도 있다. In this way, the fundus change detection in step S500 may be performed using an image processing technique and/or a deep learning model.

또한, 안저 변화 항목별로 상이한 진행될 수도 있다. 예를 들어, 단계(S500)에서 안저 변화 유무는 변화 검출 모델을 통해 수행되고, 안저 변화량은 영상 처리 기법을 통해 수행될 수도 있다. In addition, different progress may be made for each fundus change item. For example, in step S500 , the presence or absence of a fundus change may be performed through a change detection model, and the amount of fundus change may be performed through an image processing technique.

상기 장치(10)가 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 장치(10)는 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be apparent to one of ordinary skill in the art that the apparatus 10 may include other components not described herein. For example, the device 10 may include other hardware elements necessary for the operation described herein, including a network interface, an input device for data entry, and an output device for display, printing, or other data presentation. may be

이와 같이, 본 출원의 제1 측면에 따른 특정 실시예들에서, 상기 장치(10)는 특정 서브 영역을 촬영한 제1 안저영상과 제2 안저영상을 사용하여 상기 특정 서브 영역의 안저 변화 정보를 검출할 수도 있다. As such, in certain embodiments according to the first aspect of the present application, the apparatus 10 obtains fundus change information of the specific sub-region using the first fundus image and the second fundus image obtained by photographing the specific sub-region. can also be detected.

한편, 본 출원의 제2 측면에 따른 다른 특정 실시예들에서, 상기 장치(10)는 상기 제1 측면의 안저영상들(즉, 특정 서브 영역의 안저영상들) 보다 더 넓은 촬영 범위를 갖는 광각 안저영상들을 사용하여 보다 넓은 안구 영역 범위에서의 안저 변화 정보를 검출할 수도 있다. Meanwhile, in other specific embodiments according to the second aspect of the present application, the apparatus 10 has a wide angle having a wider imaging range than the fundus images of the first side (ie, fundus images of a specific sub-region). Fundus change information in a wider ocular region may be detected using fundus images.

상기 장치(10)는 안저 변화 정보를 검출하기 이전에, 광각 안저영상을 생성하도록 더 구성될 수도 있다. 특정 실시예들에서, 상기 장치(10)는 제1 시점에서 다수의 서브 영역을 촬영하여 획득되는, 제1 시점에서의 다수의 안저영상들을 합성한 제1 광각 안저영상; 그리고 제2 시점에서 해당 다수의 서브 영역을 촬영하여 획득되는, 제2 시점에서의 상기 다수의 안저영상들을 합성한 제2 광각 안저영상을 생성하고; 그리고 상기 제1 광각 안저영상 및 제2 광각 안저영상에 기초하여 보다 넓은 범위의 안저 변화를 검출할 수도 있다. The apparatus 10 may be further configured to generate a wide-angle fundus image before detecting fundus change information. In certain embodiments, the apparatus 10 may include: a first wide-angle fundus image obtained by photographing a plurality of sub-regions at a first viewpoint, obtained by synthesizing a plurality of fundus images at a first viewpoint; and generating a second wide-angle fundus image obtained by photographing the plurality of sub-regions at a second viewpoint by synthesizing the plurality of fundus images at a second viewpoint; In addition, a wider range of fundus changes may be detected based on the first wide-angle fundus image and the second wide-angle fundus image.

다시 도 1을 참조하면, 제2 측면에 따른 장치(10)는 분류부(200); 및/또는 합성부(400)를 더 포함할 수도 있다. Referring back to FIG. 1 , the device 10 according to the second aspect includes a classification unit 200 ; and/or may further include a synthesizing unit 400 .

영상 획득부(100)는 동일한 시점에서의 대상의 전체 안저영역 중 각 서브 영역을 각각 촬영한 복수의 안저영상으로 이루어진 안저영상 세트를 획득한다. 영상 획득부(100)는 제1 시점에서 촬영한, 대상의 전체 안저영역 중 제1 서브 영역을 촬영한 제1 안저영상(즉, 제1-1 안저영상), 제2 서브 영역을 촬영한 제1 안저영상(즉, 제1-2 안저영상), 내지 제n 서브 영역을 촬영한 제1 안저영상(즉, 제1-n 안저영상)으로 이루어진 제1 안저영상 세트를 획득한다. 동일하게, 영상 획득부(100)는 제2 시점에서 촬영한 제2 안저영상 세트를 획득한다. 특정 실시예들에서, 상기 제1 안저영상 세트 및 제2 안저영상 세트는 각 서브 영역이 대응하는 안저영상을 각각 포함한다. 예를 들어, 제1 안저영상 세트 및 제2 안저영상 세트 각각은 제1 서브 영역에 대응한 안저영상들(즉, 제1-1 안저영상 및 제2-1 안저영상)을 포함한다. The image acquisition unit 100 acquires a fundus image set including a plurality of fundus images obtained by photographing each sub-region of the entire fundus region of the target at the same viewpoint. The image acquisition unit 100 is a first fundus image (ie, 1-1 fundus image) in which the first sub-region of the entire fundus region of the object is photographed at the first time point, and the second sub-region is captured A first fundus image set including 1 fundus image (ie, 1-2 fundus images) and a first fundus image (ie, 1-nth fundus image) obtained by photographing the nth sub-region is acquired. Similarly, the image acquisition unit 100 acquires a second fundus image set taken at the second time point. In certain embodiments, the first fundus image set and the second fundus image set each include a fundus image to which each sub-region corresponds. For example, each of the first fundus image set and the second fundus image set includes fundus images (ie, the 1-1 fundus image and the 2-1 fundus image) corresponding to the first sub-region.

특정 실시예들에서, 상기 제1 또는 제2 안저영상 세트를 이루는 상기 복수의 안저영상은 영상 프레임 내에 시신경 유두와 중심와를 모두 포함한 제1 그룹의 안저영상, 영상 프레임 내에 시신경 유두만을 포함한 제2 그룹의 안저영상, 영상 프레임 내에 중심와만을 포함한 제3 그룹의 안저영상 및 영상 프레임 내에 시신경 유두와 중심와를 모두 포함하지 않은 제4 그룹의 안저영상을 포함한다. In certain embodiments, the plurality of fundus images constituting the first or second fundus image set includes a first group of fundus images including both an optic nerve head and a fovea in an image frame, and a second group including only the optic nerve head within an image frame. of the fundus image, the fundus image of the third group including only the fovea in the image frame, and the fundus image of the fourth group that does not include both the optic nerve papilla and the fovea in the image frame.

분류부(200)는 동일한 시점에 촬영된 복수의 안저영상들 각각의 영상 프레임에서 시신경 유두 또는 중심와를 검출하여 상기 복수의 안저영상을 제1 그룹 내지 제4 그룹으로 분류한다. 분류부(200)는 제1 또는 제2 안저영상 세트 내 각각의 영상 프레임에서 시신경 유두(optic disc) 또는 중심와(fovea)를 검출한다. The classifier 200 classifies the plurality of fundus images into first to fourth groups by detecting the optic nerve papilla or fovea in each image frame of the plurality of fundus images captured at the same time point. The classifier 200 detects an optic disc or a fovea in each image frame in the first or second fundus image set.

일 실시예에서, 분류부(200)는 미리 학습된 시신경 유두/황반 검출 모델을 사용하여 영상 프레임에서 시신경 유두 또는 중심와를 검출할 수도 있다. 또한, 분류부(200)는 검출된 객체의 영상 프레임 상의 2차원 위치를 산출할 산출할 수도 있다. 분류부(200)는 시신경 유두, 중심와의 2차원 위치를 영상 프레임 상의 픽셀 좌표로 산출한다.In an embodiment, the classifier 200 may detect the optic nerve head or fovea in the image frame using a pre-trained optic nerve head/macular detection model. Also, the classifier 200 may calculate the two-dimensional position of the detected object on the image frame. The classification unit 200 calculates the two-dimensional positions of the optic nerve papilla and fovea as pixel coordinates on the image frame.

도 9는, 본 발명의 일 실시예에 따른, 시신경 유두/황반 검출 모델의 개략적인 네트워크 아키텍쳐를 도시한다. 9 shows a schematic network architecture of an optic disc/macular detection model, according to an embodiment of the present invention.

도 9를 참조하면, 상기 시신경 유두/황반 검출 모델(이하, “검출 모델”)은 공유 컨볼루션 네트워크; 지역 지정 네트워크; 객체 검출 네트워크를 포함한다. Referring to FIG. 9 , the optic nerve papilla/macular detection model (hereinafter, “detection model”) includes a shared convolutional network; regional network; It includes an object detection network.

상기 공유 컨볼루션 네트워크는 다수의 컨볼루션 레이어를 포함하며, 이의 출력은 지역 지정 네트워크 및 객체 검출 네트워크에 의해 공유된다. The shared convolutional network includes a plurality of convolutional layers, the output of which is shared by a localized network and an object detection network.

공유 컨볼루션 네트워크의 마지막 공유 컨볼루션 레이어가 출력한 컨볼루션 특징맵은 상기 지역 지정 네트워크에 입력된다. The convolution feature map output by the last shared convolution layer of the shared convolutional network is input to the region-specific network.

상기 지역 지정 네트워크는 입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측한다. The regional designation network generates an intermediate feature map by applying a sliding window method to the input convolutional feature map, and predicts a region of interest in which a candidate object is likely to be located based on the intermediate feature map.

상기 슬라이딩 방식은 입력 데이터에서 윈도우를 슬라이딩하면서 입력 데이터의 모든 범위에 대해서 원하는 대상을 탐색하는 방식이다. 이 윈도우는 입력된 컨볼루션 특징맵을 따라 슬라이딩한다. 각 슬라이딩 위치에서의 특징 윈도우는 보다 저 차원의 특징에 매핑된다. 그러면, 상기 지역 지정 네트워크는 입력된 컨볼루션 특징맵 보다 더 낮은 차원의 중간 특징맵(intermediate feature map)을 생성한다. 상기 지역 지정 네트워크는 중간 특징맵에 기초하여 관심지역을 예측한다. The sliding method is a method of searching for a desired object for all ranges of input data while sliding a window on the input data. This window slides along the input convolutional feature map. The feature window at each sliding position is mapped to a lower-dimensional feature. Then, the region-specific network generates an intermediate feature map of a lower dimension than the input convolutional feature map. The regional designation network predicts a region of interest based on the intermediate feature map.

일 실시예에서, 상기 지역 지정 네트워크는 상기 후보 객체(즉, 시신경 유두 또는 중심와)가 경계 상자의 중심부에 위치하도록 상기 관심지역을 예측할 수도 있다. 그러면, 경계 상자의 위치는 중심부의 위치, 즉 후보객체의 위치에 대응한다. In an embodiment, the region-specific network may predict the ROI so that the candidate object (ie, the optic disc or fovea) is located in the center of the bounding box. Then, the position of the bounding box corresponds to the position of the center, that is, the position of the candidate object.

일부 실시예들에서, 상기 지역 지정 네트워크는 미리 크기가 고정된 경계 상자를 사용하여 관심지역을 예측할 수도 있다. In some embodiments, the region-specific network may predict a region of interest using a bounding box having a fixed size in advance.

시신경 유두와 중심와의 크기는 일반적으로 일정한 경향을 가진다. 이 경향성에 기초하여 획득된 값으로 경계 상자의 크기를 미리 설정할 수도 있다. The size of the optic disc and fovea generally tends to be constant. The size of the bounding box may be preset to a value obtained based on this tendency.

도 9에 도시된 바와 같이, 지역 지정 네트워크는 시신경 유두, 중심와를 포함할 가능성이 있는 관심영역을 예측한다. As shown in FIG. 9 , the regional-specific network predicts a region of interest that is likely to include the optic disc and fovea.

상기 객체 검출 네트워크는 풀링 레이어 및 완전연결 레이어를 포함한다. The object detection network includes a pooling layer and a fully connected layer.

공유 컨볼루션 네트워크의 마지막 공유 컨볼루션 레이어가 출력한 컨볼루션 특징맵은 상기 객체 검출 네트워크에도 입력된다. 입력된 컨볼루션 특징맵은 풀링 레이어로 입력된다. The convolution feature map output by the last shared convolution layer of the shared convolutional network is also input to the object detection network. The input convolutional feature map is input to the pooling layer.

풀링 레이어는 입력된 데이터를 상기 지역 지정 네트워크에 의한 관심지역 예측 결과에 기초하여 풀링 처리한다. 상기 풀링 레이어는 특징맵이 입력되면 특징 벡터로 출력하도록 구성된다. 그러면, 도 3의 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터가 완전연결 레이어로 입력된다. The pooling layer performs a pooling process on the input data based on the ROI prediction result by the regional designation network. The pooling layer is configured to output a feature vector when a feature map is input. Then, the feature vector for the region of interest in the image frame initially input to the detection model of FIG. 3 is input to the fully connected layer.

상기 일부 실시예들에서, 경게 상자의 크기가 고정될 경우, 탐색된 관심지역의 중간 특징맵의 크기도 고정된다. 그러면, 상기 객체 검출 네트워크는 고정된 크기의 특징 벡터를 획득하여 이를 완전연결 레이어로 입력한다. In some embodiments, when the size of the bounding box is fixed, the size of the intermediate feature map of the searched ROI is also fixed. Then, the object detection network acquires a feature vector of a fixed size and inputs it to the fully connected layer.

상기 완전연결 레이어는 관심지역에서 시신경 유두, 중심와가 존재할 확률을 계산하여 시신경 유두, 중심와의 위치를 예측하도록 구성된다. The fully connected layer is configured to predict the position of the optic nerve head and fovea by calculating the probability that the optic nerve head and fovea exist in the region of interest.

일 실시예에서, 상기 객체 검출 네트워크는 입력된 영상 프레임 상의 경계 상자의 2차원 위치와 크기, 각 객체의 클래스(즉, 시신경 유두 또는 중심와) 및 각 클래스에 대한 신뢰도 점수를 포함한 결과를 출력할 수도 있다. 상기 신뢰도 점수는 확률 값 또는 이에 기반한 다른 변환 값일 수도 있다. In an embodiment, the object detection network may output a result including the two-dimensional position and size of the bounding box on the input image frame, the class of each object (ie, the optic disc or fovea), and the confidence score for each class have. The confidence score may be a probability value or another conversion value based thereon.

상기 검출 모델은 이 결과에 기초하여 시신경 유두, 중심와를 검출한다. 상기 검출 모델은 각각의 클래스별로 해당 신뢰도에 대해 가장 높은 값을 갖는 관심지역을 선택하여 시신경 유두, 중심와를 검출한다. The detection model detects the optic nerve head and fovea based on this result. The detection model detects the optic nerve head and fovea by selecting the region of interest having the highest value for the corresponding reliability for each class.

일 실시예에서, 상기 검출 모델은 각각의 클래스별로 해당 신뢰도에 대해 가장 높은 값을 갖는 관심지역을 선택하고, 선택된 관심지역의 클래스에 대한 신뢰도가 미리 설정된 신뢰도 임계치 보다 높은 경우에 선택된 관심지역의 클래스의 객체를 시신경 유두 또는 중심와로 검출할 수도 있다. In one embodiment, the detection model selects the region of interest having the highest value for the corresponding reliability for each class, and when the reliability of the class of the selected region of interest is higher than a preset reliability threshold, the class of the selected region of interest It is also possible to detect an object of the optic nerve disc or fovea.

상기 신뢰도가 확률 값일 경우, 상기 신뢰도 임계치는 예를 들어 0.9일 수도 있으나 이에 제한되진 않는다. When the reliability is a probability value, the reliability threshold may be, for example, 0.9, but is not limited thereto.

상기 검출 모델은 상기 제1 내지 제4 그룹 중 일부 또는 전부를 포함한 훈련 데이터 세트를 사용하여 학습된다. 검출 모델은 훈련 안저영상의 실제 값과 예측 값 간의 차이가 최소화되기 위한 파라미터의 값을 갖도록 학습된다. The detection model is trained using a training data set including some or all of the first to fourth groups. The detection model is trained to have a parameter value for minimizing the difference between the actual value and the predicted value of the training fundus image.

상기 분류부(200)는 시신경 유두, 중심와의 검출 여부에 따라 복수의 안저영상을 제1 그룹 내지 제4 그룹으로 자동으로 분류한다. 분류부(200)의 동작에 대해서는 도 9 등을 참조하여 아래에서 보다 상세하게 서술한다.The classification unit 200 automatically classifies the plurality of fundus images into first to fourth groups according to whether the optic nerve papilla or fovea is detected. The operation of the classification unit 200 will be described in more detail below with reference to FIG. 9 and the like.

상기 장치(10)의 정합부(300)는, 광각 안저영상을 생성하기 위해, 각 세트 내 안저영상별로 적어도 하나의 특징점(feature point)을 추출할 수도 있다. 또한, 상기 정합부(300)는 서로 다른 안저영상을 정합하기 위해 복수의 안저영상 각각에 대해서 혈관 영역을 추출한다. 여기서, 세트 내 각각의 안저영상들, 그리고 서로 다른 안저영상은 촬영한 서브 영역이 일치하지 않는 영상들을 의미한다. 예를 들어, 촬영한 서브 영역이 부분적으로 중첩되는 안저영상들이 세트 내 각각의 안저영상들, 그리고 서로 다른 안저영상으로 취급된다. The matching unit 300 of the apparatus 10 may extract at least one feature point for each fundus image in each set in order to generate a wide-angle fundus image. In addition, the matching unit 300 extracts a blood vessel region for each of a plurality of fundus images in order to match different fundus images. Here, each fundus image in the set and different fundus images mean images in which the captured sub-regions do not match. For example, fundus images in which the photographed sub-regions partially overlap are treated as individual fundus images in the set and different fundus images.

정합부(400)는 제1 또는 제2 안저영상 세트에 포함된 각각의 안저영상별로 혈관의 적어도 일부를 나타낸 혈관 마스크를 생성할 수도 있다. 이러한 정합부(400)의 동작들은 위에서 전술하였는바 자세한 설명은 생략한다. The matching unit 400 may generate a blood vessel mask indicating at least a portion of a blood vessel for each fundus image included in the first or second fundus image set. Since the operations of the matching unit 400 have been described above, a detailed description thereof will be omitted.

합성부(500)는 동일한 특정 시점에 촬영된, 서로 다른 서브 영역을 촬영한 안저영상들을 합성하여 상기 특정 시점에서의 광각 안저영상을 생성한다. 합성부(500)의 광각 안저영상 생성 동작에 대해서는 도 10 등을 참조하여 아래에서 보다 상세하게 서술한다.The synthesizing unit 500 generates a wide-angle fundus image at the specific time by synthesizing fundus images captured at the same specific time point and photographing different sub-regions. The operation of generating the wide-angle fundus image of the synthesizing unit 500 will be described in more detail below with reference to FIG. 10 and the like.

도 10은, 본 출원의 제2 측면에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법의 흐름도이고, 도 11은, 도 10의 광각 안저영상을 생성하기 위한 안저영항 정합 방법의 개략도이다. 도 11b는 도 11a의 단계(S1300)에 대한 개략적인 부분 확대도이다. FIG. 10 is a flowchart of a fundus image registration method for generating a wide-angle fundus image according to the second aspect of the present application, and FIG. 11 is a schematic diagram of a fundus input term matching method for generating the wide-angle fundus image of FIG. 10 . 11B is a schematic partial enlarged view of step S1300 of FIG. 11A .

상기 광각 안저영상을 생성하기 위한 안저영항 정합 방법(이하, “정합 방법”)은: (예컨대, 영상 획득부(100)에 의해) 복수의 안저영상을 획득하는 단계(S1100)를 포함한다. 상기 복수의 안저영상 각각은 시신경 유두 및/또는 황반 주심을 포함하거나, 또는 이들 모두를 포함하지 않을 수도 있다. The fundus domain matching method (hereinafter, “matching method”) for generating the wide-angle fundus image includes: acquiring a plurality of fundus images (eg, by the image acquisition unit 100 ) ( S1100 ). Each of the plurality of fundus images may include an optic nerve disc and/or a macular pericentre, or may not include all of them.

상기 정합 방법은: (예컨대, 분류부(200)에 의해) 복수의 안저영상 각각에 대해서, 시신경 유두 및/또는 중심와를 검출하여 복수의 그룹으로 분류하는 단계(S1210)를 포함한다. 단계(S1210)의 복수의 안저영상은 제1 안저영상 세트 또는 제2 안저영상 세트일 수도 있다. The registration method includes: (eg, by the classification unit 200 ), for each of the plurality of fundus images, detecting the optic nerve papilla and/or fovea and classifying them into a plurality of groups ( S1210 ). The plurality of fundus images in step S1210 may be a first fundus image set or a second fundus image set.

일 실시예에서, 미리 학습된 시신경 유두/황반 검출 모델을 사용하여 각 세트 내 개별 안저영상의 영상 프레임에서 시신경 유두 및/또는 중심와가 검출될 수도 있다(S1210). 단계(S1210)의 검출 모델 및 이를 사용한 시신경 유두, 중심와의 검출 동작에 대해서는 도 9를 참조하여 전술하였는 바 자세한 설명은 생략한다. In an embodiment, the optic nerve head and/or fovea may be detected in the image frame of the individual fundus images in each set using the pre-trained optic nerve head/macular detection model (S1210). The detection model of step S1210 and the detection operation of the optic nerve papilla and fovea using the same have been described above with reference to FIG. 9 , and detailed description thereof will be omitted.

특정 실시예들에서, 상기 제1 또는 제2 안저영상 세트에 대한 복수의 그룹은 제1 내지 제4 그룹을 포함한다. 상기 단계(S1210)는 상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계; 상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계; 상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및/또는 상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계를 포함할 수도 있다. 예를 들어, 단계(S1210)에서, 단계(S1100)의 복수의 영상이 제1 내지 제4 그룹 각각으로 분류될 수도 있다. In certain embodiments, the plurality of groups for the first or second fundus image set includes first to fourth groups. The step (S1210) includes: classifying the fundus image in which both the optic nerve papilla and the fovea are detected into a first group; classifying the fundus image in which only the optic nerve head is detected into a second group; classifying the fundus image in which only the fovea is detected into a third group; and/or classifying a fundus image in which neither the optic nerve papilla nor the fovea is detected into a fourth group. For example, in step S1210 , the plurality of images of step S1100 may be classified into first to fourth groups, respectively.

또한, 상기 정합 방법은: (예컨대, 분류부(200)에 의해) 그룹별로 그룹 내 안저영상 간의 정합 순위를 할당하는 단계(S1230)를 포함한다. 상기 단계(S1230)는: 상기 제1 그룹 내지 제4 그룹 중 일부 또는 전부의 그룹에 대해서, 상기 일부 또는 전부의 그룹 각각에 포함된 안저영상에 정합 순위를 할당하는 단계; 및/또는 제4 그룹의 안저영상들에 대한 제4 그룹 내 정합 순위를 할당하는 단계를 포함한다. In addition, the matching method includes: (eg, by the classification unit 200 ) allocating a matching rank among fundus images within a group for each group ( S1230 ). The step (S1230) may include: allocating a matching priority to fundus images included in each of the partial or all groups with respect to some or all of the first to fourth groups; and/or allocating a matching order within the fourth group to the fundus images of the fourth group.

이하, 설명의 명료성을 위해, 제1 안저영상 세트에서 제1 내지 제4 그룹을 제1-1 내지 제1-4 그룹으로 분류하는 실시예들로 본 출원의 장치(10)를 보다 상세히 서술한다. Hereinafter, for clarity of explanation, the apparatus 10 of the present application will be described in more detail as embodiments in which the first to fourth groups in the first fundus image set are classified into 1-1 to 1-4 groups. .

정합 순위가 할당되면, 정합될 안저영상의 순서는 상기 정합 순위에 의존한다. 예를 들어, 제1-1 그룹에 속한 안저영상들은 제1-1 그룹 내 안저영상 간의 정합 순위에 따라서 차례대로 정합된다. 또는 제1-4 그룹에 속한 안저영상들은 제1-4 그룹 내 안저영상 간의 정합 순위에 따라서 차례대로 정합될 수도 있다. When a matching rank is assigned, the order of fundus images to be matched depends on the matching rank. For example, fundus images belonging to the 1-1 group are sequentially matched according to the matching order among fundus images in the 1-1 group. Alternatively, fundus images belonging to groups 1-4 may be sequentially registered according to the matching order among fundus images in groups 1-4.

일 실시예에서, 상기 단계(S1230)는: 상기 제1-1 그룹 내지 제1-3 그룹 중 적어도 하나의 그룹에 대해서, 각 그룹별로 각각의 기준 안저영상(reference fundus image)을 선택하는 단계; 및 상기 기준 안저영상을 사용하여 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 예를 들어, 제1-1 그룹 내지 제1-3 그룹 각각에 대한 기준 안저영상이 선택되고, 각 그룹별 기준 안저영상을 사용하여 그룹 내 정합 순위가 할당된다(S1230). In one embodiment, the step (S1230) may include: selecting each reference fundus image for each group with respect to at least one of the group 1-1 to group 1-3; and allocating a matching rank within the corresponding group to the fundus image for each corresponding group using the reference fundus image. For example, a reference fundus image for each of the group 1-1 to 1-3 is selected, and a matching rank within the group is assigned using the reference fundus image for each group (S1230).

중심와와 시신경 유두는 서로 가까운 해부학적 특성을 가진다. 이로 인해, 중심와가 영상 프레임의 중앙 부분에 위치하는 안저영상은 시신경 유두도 포함하는 것이 일반적이므로, 제1-1 그룹에 속한 것으로 취급 가능하다. The fovea and the optic disc have close anatomical characteristics. For this reason, since the fundus image in which the fovea is located in the central portion of the image frame generally also includes the optic disc, it can be treated as belonging to the 1-1 group.

일 실시예에서, 제1-1 그룹의 기준 안저영상은 제1-1 그룹에 속하는 안저영상들 중에서 각 안저영상별로 검출된 시신경 유두의 위치와 영상 프레임의 중심 위치 사이의 최소 거리를 갖는 안저영상으로 선택될 수도 있다(S1230). 광각 안저영상의 초기 영상 프레임을 사용될 수도 있는 제1-1 그룹의 기준 안저영상을 이와 같이 선택할 경우, 전술한 바와 같이, 광각 안저영상을 생성하는데 안구 내부의 중심을 기준으로 개시하는 것이 유리한 장점과 동시에 시각적 구별의 편의성을 모두 가질 수 있기 때문이다. In an embodiment, the reference fundus image of the 1-1 group is a fundus image having a minimum distance between the position of the optic nerve head detected for each fundus image among the fundus images belonging to the 1-1 group and the center position of the image frame. may be selected (S1230). When the reference fundus image of the 1-1 group that may be used as the initial image frame of the wide-angle fundus image is selected in this way, as described above, it is advantageous to start with the center of the inside of the eyeball as a reference in generating the wide-angle fundus image, and This is because it is possible to have all the conveniences of visual discrimination at the same time.

또한, 상기 제1-1 그룹의 안저영상들에 대한 제1-1 그룹 내 정합 순위는 제1-1 그룹의 기준 안저영상의 시신경 유두와 제1-1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다. 전술한 바와 같이, 시신경 유두가 보다 시각적으로 쉽게 구별되기 때문이다. 다른 안저영상의 시신경 유두가 기준 안저영상의 시신경 유두와의 거리가 가까울수록 보다 높은 정합 순위가 할당된다(S1230). In addition, the registration order within the 1-1 group for the fundus images of the 1-1 group is based on the distance between the optic nerve head of the reference fundus image of the 1-1 group and another fundus image in the 1-1 group. may be assigned. This is because, as described above, the optic nerve discs are more easily distinguished visually. As the distance between the optic nerve head of another fundus image and the optic nerve head of the reference fundus image is closer, a higher matching priority is assigned (S1230).

상기 거리는, 예를 들어 ||po i-po ref||2의 수학식에 의해 산출될 수도 있다. 여기서, i는 그룹 내 인덱스이고, po i는 상기 제1-1 그룹의 i번째 안저영상의 시신경 유두의 영상 프레임 상의 픽셀 좌표를 나타내고, po ref 는 기준 안저영상의 영상 프레임 상의 시신경 유두의 픽셀 좌표를 나타낸다. The distance is, for example, ||p o i -p o ref || It may be calculated by Equation ( 2). Here, i is an index within the group, p o i represents the pixel coordinates on the image frame of the optic nerve head of the i-th fundus image of the group 1-1, and p o ref is the position of the optic nerve head on the image frame of the reference fundus image. Represents pixel coordinates.

상기 제1-1 그룹 및 제1-2 그룹의 안저영상이 시신경 유두를 포함하므로, 상기 제1-1 그룹의 기준 안저영상을 상기 제1-2 그룹의 기준 안저영상으로 사용할 수도 있다. 즉, 제1-1 그룹의 기준 안저영상이 선택되면, 상기 제1-2 그룹의 기준 안저영상도 자동으로 선택된다. Since the fundus images of the group 1-1 and group 1-2 include the optic nerve papilla, the reference fundus image of the group 1-1 may be used as the reference fundus image of the group 1-2. That is, when the reference fundus image of the 1-1 group is selected, the reference fundus image of the 1-2 group is also automatically selected.

상기 제1-2 그룹의 안저영상들에 대한 제1-2 그룹 내 정합 순위는 제1-2 그룹의 기준 안저영상의 시신경 유두와 제1-2 그룹 내 다른 안저영상 간의 거리에 기초하여 할당된다(S1230). The matching order within the 1-2 group for the fundus images of the 1-2 group is assigned based on the distance between the optic nerve head of the reference fundus image of the 1-2 group and another fundus image in the 1-2 group (S1230).

상기 제1-3 그룹의 기준 안저영상도 전술한 제1-1 그룹의 기준 안저영상을 선택하는 과정과 유사하지만, 시신경 유두를 사용하는 대신 중심와의 위치를 기초로 선택된다. The reference fundus image of the group 1-3 is also similar to the process of selecting the reference fundus image of the group 1-1 described above, but is selected based on the position of the fovea instead of using the optic disc.

일 실시예에서, 상기 제1-3 그룹의 기준 안저영상은 제1-3 그룹에 속하는 안저영상들 중에서 각 안저영상별로 검출된 중심와의 위치와 영상 프레임의 중심 위치 사이의 최소 거리를 갖는 안저영상으로 선택될 수도 있다(S1230). In an embodiment, the reference fundus image of the 1-3 group is a fundus image having a minimum distance between the position of the fovea detected for each fundus image and the central position of the image frame among fundus images belonging to the 1-3 group. may be selected (S1230).

또한, 상기 제1-3 그룹의 안저영상들에 대한 제1-1 그룹 내 정합 순위는 제1-1 그룹의 기준 안저영상의 시신경 유두와 제1-1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다. 전술한 바와 같이, 시신경 유두가 보다 시각적으로 쉽게 구별되기 때문이다. 다른 안저영상의 중심와가 기준 안저영상의 중심와와의 거리가 가까울수록 보다 높은 정합 순위가 할당된다(S1230). In addition, the registration order within the 1-1 group for the fundus images of the 1-3 group is based on the distance between the optic nerve head of the reference fundus image of the 1-1 group and another fundus image in the 1-1 group. may be assigned. This is because, as described above, the optic nerve discs are more easily distinguished visually. The closer the distance between the fovea of another fundus image and the fovea of the reference fundus image is, the higher the matching priority is assigned (S1230).

한편, 상기 제1-4 그룹 내 안저영상들 간의 정합 순위는 특징점의 매칭 정도에 기초하여 할당된다. Meanwhile, the matching order among fundus images in the 1-4 groups is assigned based on the matching degree of the feature points.

일 실시예에서, 상기 제1-4 그룹 내 안저영상들 간의 정합 순위는 제1-4 그룹에 속하는 안저영상들 각각의 특징점이 초기 안저영상(즉, 상기 제1-1 그룹의 기준 안저영상) 또는 이전 정합 순위까지 이미 합성된 영상의 특징점에 매칭하는 정도에 기초하여 할당될 수도 있다. 매칭 정도가 높을수록 보다 높은 정합 순위가 할당된다. In an embodiment, the registration order among the fundus images in the 1-4 group is an initial fundus image (ie, the reference fundus image of the 1-1 group) with each feature point of the fundus images belonging to the group 1-4. Alternatively, it may be assigned based on the degree of matching with the feature points of the image already synthesized up to the previous matching rank. A higher matching degree is assigned a higher matching rank.

대안적인 실시예들에서, 상기 정합 방법은: (예컨대, 분류부(200)에 의해) 그룹 간의 정합 순위를 설정하는 단계(미도시)를 더 포함할 수도 있다. In alternative embodiments, the matching method may further include: (eg, by the classification unit 200 ) setting a matching rank between groups (not shown).

안구 내부의 영역을 표현한 광각 안저영상을 생성하는 것을 가정할 경우, 안구 내부의 중심을 기준으로 정합하여 합성하는 것이 유리하다. 중심와는 망막의 중심에 가까운 해부학적 특성을 가진다. 따라서, 중심와를 포함할수록 보다 높은 정합의 우선 순위를 가져야 한다. 그러나, 중심와는 망막 내에서 약간 더 어두운 점의 형태와 같이, 시각적으로 구별되기 모호한 특성을 가진다. 따라서, 영상 정렬에서 중심와만을 기준(reference)으로 사용하기에 쉽지 않다. 반면, 시신경 유두는 중심와 대비 상대적으로 시각적으로 구별되기 쉬운 특성을 가진다. When it is assumed that a wide-angle fundus image expressing the region inside the eyeball is generated, it is advantageous to match and synthesize the images based on the center of the eyeball. The fovea has anatomical characteristics close to the center of the retina. Therefore, the more the fovea is included, the higher the priority of registration should be. However, the fovea has properties that are obscure to distinguish visually, such as in the form of slightly darker dots within the retina. Therefore, it is not easy to use only the fovea as a reference in image alignment. On the other hand, the optic nerve papilla is relatively visually distinguishable compared to the fovea.

이로 인해, 상기 그룹 간의 정합 순위는 중심와와 더불어 시신경 유두를 모두 포함한 상기 제1-1 그룹에 가장 높은 그룹 간의 정합 순위가 할당된다. 상기 제1-4 그룹에 가장 낮은 그룹 간의 정합 순위가 할당된다. 제1-1 그룹 및 제1-3 그룹은 이들 사이에 할당된다. 예를 들어, 제1-1 그룹, 제1-2 그룹, 제1-3 그룹 및 제1-4 그룹의 순서 또는 상기 제1-1 그룹, 상기 제1-3 그룹, 상기 제1-2 그룹 및 제1-4 그룹의 순서로 설정될 수도 있다. 그러면, 광각 안저영상을 생성하기 위해, 우선 초기 안저영상을 상기 제1-1 그룹에서 선택하고, 제1-1 그룹 내 안저영상의 정합 순위에 따라 상기 제1-1 그룹 내 안저영상들을 상기 초기 안저영상에 순서대로 정합하고, 합성 영상을 생성한다. For this reason, as for the matching rank between the groups, the highest matching rank between the groups is assigned to the 1-1 group including both the fovea and the optic disc. A matching rank among the lowest groups is assigned to the 1-4 groups. Groups 1-1 and 1-3 are assigned between them. For example, in the order of group 1-1, group 1-2, group 1-3, and group 1-4, or group 1-1, group 1-3, group 1-2 and the order of groups 1-4 may be set. Then, in order to generate a wide-angle fundus image, an initial fundus image is first selected from the 1-1 group, and the fundus images in the 1-1 group are selected according to the matching order of the fundus images in the 1-1 group. They are sequentially matched to fundus images, and a composite image is generated.

상기 그룹 간의 정합 순위를 설정하는 단계는 광각 안저영상을 생성하기 위한 복수의 안저영상을 획득하는 단계(S1100) 이전 또는 그 이후에 수행될 수도 있다. 예를 들어, 그룹 간의 정합 순위를 설정하는 단계는 아래에서 서술할 정합된 안저영상을 합성하는 단계(S1400) 이전에 설정될 수도 있다. The step of setting the matching order between the groups may be performed before or after the step of acquiring a plurality of fundus images for generating a wide-angle fundus image ( S1100 ). For example, the step of setting the matching order between groups may be set before the step of synthesizing the matched fundus image to be described below ( S1400 ).

그러면, 제1-1 내지 제1-4 그룹의 모든 복수의 안저영상에 대한 전체적인 정합 순위가 할당될 수도 있다. 예를 들어, 제1-1 그룹 내 안저영상들에 대해 정합 순위가 할당되면, 제1-2 그룹 내 가장 높은 정합 순위를 갖는 첫번?? 안저영상은 제1-1 그룹 내 가장 낮은 정합 순위를 갖는 마지막 안저영상의 다음 정합 순위를 가지는 것으로 정렬될 수도 있다. Then, the overall matching order may be assigned to all the plurality of fundus images of groups 1-1 to 1-4. For example, if a matching rank is assigned to fundus images in group 1-1, the first group having the highest matching rank in group 1-2? The fundus images may be sorted as having the next matching rank of the last fundus image having the lowest matching rank in the 1-1 group.

도 10 및 도 11b를 참조하면, 상기 정합 방법은: (예컨대, 정합부(300)에 의해) 정합 순위에 기초하여 시작 안저영상과 다음 정합 순위의 안저영상 정합하는 단계(S1300);를 포함한다. Referring to FIGS. 10 and 11B , the registration method includes: (eg, by the matching unit 300) matching the start fundus image with the fundus image of the next matching order based on the registration order (S1300); .

특정 실시예들에서, 상기 제1-1 내지 제1-4 그룹의 모든 복수의 안저영상에 대한 전체적인 정합 순위가 할당될 경우, 이미 합성된 영상에 추가되는 안저영상은 단일 안저영상일 수도 있다. In certain embodiments, when the overall matching rank is assigned to all the plurality of fundus images of the 1-1 to 1-4 groups, the fundus image added to the already synthesized image may be a single fundus image.

초기 몽타주로 사용 가능한, 가장 높은 정합 순위를 갖는 제1-1 그룹의 기준 안저영상과 제1-1 그룹 내 그 다음 정합 순위의 안저영상을 참조하여 단계(S1300)를 보다 상세하게 서술한다. 몽타주의 소스영상, 즉 상기 제1-1a 안저영상 세트 내 제1-1 그룹의 기준 안저영상은 제1-1a 안저영상으로, 그 다음 정합 순위의 안저영상은 제1-1b 안저영상으로 아래에서 지칭된다. Step S1300 will be described in more detail with reference to the reference fundus image of the 1-1 group having the highest matching rank and the fundus image of the next matching rank in the 1-1 group, which can be used as an initial montage. The source image of the montage, that is, the reference fundus image of the 1-1 group in the 1-1a fundus image set is the 1-1a fundus image, and the fundus image of the next matching rank is the 1-1b fundus image. is referred to

상기 단계(S1300)는: 상기 제1-1a 안저영상과 제1-1b 안저영상의 혈관 마스크를 생성하는 단계(S1310)를 포함한다. 상기 혈관 마스크는 미리 학습된 분할 모델을 사용하여 안저영상으로부터 혈관 영역을 추출하여 생성된다. 그러면, 상기 제1-1a 영역 내 혈관의 적어도 일부를 나타낸 제1-1a 혈관 마스크, 그리고 상기 제1-1b 영역 내 혈관의 적어도 일부를 나타낸 제1-1b 혈관 마스크가 생성된다(S1310). The step S1300 includes: generating a vascular mask of the 1-1a fundus image and the 1-1b fundus image (S1310). The blood vessel mask is generated by extracting the blood vessel region from the fundus image using a pre-trained segmentation model. Then, a 1-1a blood vessel mask representing at least a portion of the blood vessels in the 1-1a region and a 1-1b blood vessel mask representing at least a portion of the blood vessels in the 1-1b region are generated ( S1310 ).

단계(S1310)에서 추출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 추출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. A blood vessel shape is determined based on the blood vessel probability map extracted in step S1310. In certain embodiments, a mask corresponding to a blood vessel shape based on the extracted blood vessel probability map may be generated as an eye blood vessel mask.

단계(S1310)의 분할 모델 및 혈관 영역을 추출하여 혈관 마스크를 생성하는 동작에 대해서는 정합부(300)의 동작을 참조하여 전술하였는 바 자세한 설명은 생략한다. The operation of generating the blood vessel mask by extracting the division model and the blood vessel region in step S1310 has been described above with reference to the operation of the matching unit 300 , and detailed description thereof will be omitted.

또한, 상기 단계(S1300)는: 제1-1a 안저영상과 제1-1b 안저영상의 특징점에 기초하여 제1-1a 안저영상과 제1-1b 안저영상을 정합하는 단계(S1330); 및 생성한 혈관 마스크에 기초하여 상기 제1-1a 안저영상과 제1-1b 안저영상을 정합하는 단계(S1350)를 포함한다. 단계(S1350)의 정합 동작은 단계(S1330)의 특징점 정합 이후 수행되므로, 재-정합 동작으로 취급된다. In addition, the step (S1300) may include: matching the 1-1a fundus image and the 1-1b fundus image based on the feature points of the 1-1a fundus image and the 1-1b fundus image (S1330); and matching the 1-1a fundus image and the 1-1b fundus image based on the generated blood vessel mask (S1350). Since the matching operation in step S1350 is performed after the feature point matching in step S1330, it is treated as a re-matching operation.

단계(S1330)는 안저영상 내 특징점을 추출하는 단계; 및 추출된 특징점에 기초하여 제1-1a 안저영상과 제1-1b 안저영상을 정합하는 단계를 포함한다. Step S1330 is a step of extracting a feature point in the fundus image; and matching the 1-1a fundus image and the 1-1b fundus image based on the extracted feature points.

상기 특징점은 영상을 매칭하는데 있어서 주위 배경과 구분되면서 식별이 용이한 지점을 포함한다. 전술한 바와 같이, 기하학적 특징점이 특징점으로 사용될 수도 있다. 일 실시예에서, 특징점은 혈관의 기하학적 형상과 관련된 특징점을 포함할 수도 있다. 예를 들어, 혈관 형상 또는 에지에 포함된 특징점을 포함할 수도 있다. The feature point includes a point that is easily identified while being distinguished from the surrounding background in matching the image. As described above, geometric feature points may be used as feature points. In an embodiment, the feature point may include a feature point related to the geometry of the blood vessel. For example, a feature point included in the shape of a blood vessel or an edge may be included.

단계(S1330)에서 특징 서술자(descriptor) 기반 다양한 특징 추출 알고리즘을 통해 입력영상(예컨대, 제1-1a 안저영상)에서 특징점을 추출할 수도 있다. 상기 특징 추출 알고리즘은, 예를 들어 DoG(Difference of Gaussian)를 기반으로 영상 축 및/또는 스케일 축으로 코너성이 극대인 점을 추출하는 SIFT(Scale Invariaant Feature Trnasform)을 포함할 수도 있으나, 이에 제한되진 않는다. 단계(S1330)에서 다수의 특징점을 포함한 특징점 세트가 추출될 수도 있다. In step S1330, feature points may be extracted from the input image (eg, 1-1a fundus image) through various feature extraction algorithms based on a feature descriptor. The feature extraction algorithm may include, for example, a Scale Invariaant Feature Trnasform (SIFT) that extracts a point having a maximum cornerity on an image axis and/or a scale axis based on Difference of Gaussian (DoG), but is limited thereto. it doesn't happen In step S1330, a feature point set including a plurality of feature points may be extracted.

상기 단계(S1330)에서 특징점 기반 매칭은 픽셀 도메인에서 수행될 수도 있다. In step S1330, the feature point-based matching may be performed in the pixel domain.

상기 단계(S1330)에서 상기 제1-1a 안저영상으로부터 추출된 제1-1 특징점 세트와 상기 제1-1a 안저영상으로부터 추출된 제1-2 특징점 세트를 각각 강체 정합(rigid registration)함으로써, 제1-1a 안저영상과 제1-1b 안저영상을 정합할 수도 있다. By rigid registration of the 1-1 feature point set extracted from the 1-1a fundus image and the 1-2 feature point set extracted from the 1-1a fundus image in the step S1330, respectively, The 1-1a fundus image and the 1-1b fundus image may be registered.

일 실시예에서, 상기 단계(S1330)는, 원근 변환 행렬을 이용하여 제1-1 특징점 세트와 제1-2 특징점 세트를 정합하는 단계를 포함할 수도 있다. 일부 실시예에서, 상기 단계(S1230)는 RANSAC 알고리즘을 더 이용하여 제1-1 특징점 세트와 제1-2 특징점 세트를 정합할 수도 있다. 예를 들어, 원근 변환 행렬을 이용하여 제1-1 특징점 세트와 제1-2 특징점 세트를 정합하는 과정에서, RANSAC 알고리즘을 통해 각 세트의 특징점 간의 매칭도를 최대화하는 값을 산출함으로써, 특징점 기반 매칭을 수행할 수도 있다.In an embodiment, the step S1330 may include matching the first-first feature point set and the first-second feature point set using a perspective transformation matrix. In some embodiments, the step ( S1230 ) may further use the RANSAC algorithm to match the first-first feature point set and the first-second feature point set. For example, in the process of matching the 1-1 feature point set and the 1-2 feature point set using the perspective transformation matrix, a value that maximizes the degree of matching between the feature points of each set is calculated through the RANSAC algorithm. Matching can also be performed.

단계(S1330)의 정합 이후 단계(S1350)의 정합이 추가로 수행된다. After the matching in step S1330, the matching in step S1350 is additionally performed.

일 실시예에서, 상기 정합 방법은: 특징점 기반 정합 이후, 특징점 기반 정합 결과의 유효성을 검증하는 단계(S1340)를 더 포함할 수도 있다. 단계(S1350)의 추가 정합은 단계(S1340)에서 유효성이 검증된 경우에 수행된다. In an embodiment, the matching method may further include: after keypoint-based matching, verifying validity of the keypoint-based matching result ( S1340 ). Further matching in step S1350 is performed when validity is verified in step S1340.

일 실시예에서, 유효성 검증을 위해, 다음 정합 순위를 갖는 안저영상(예컨대, 제1-1b 안저영상)은 호모그래피 변환 처리될 수도 있다(S1340). 상기 제1-1b 안저영상이 호모그래피 변환 처리될 경우, 상기 제1-1b 안저영상의 특징점이 다른 안저영상(즉, 제1-1a 안저영상)에 투영된다. 상기 제1-1b 안저영상에 대해서, 호모그래피 변환 전후의 변화가 유효성 조건을 충족하지 못하면, 상기 제1-1b 안저영상은 정합되지 않고 광각 안저영상을 생성하는데 사용되지 않는다. In an embodiment, for validation, the fundus image having the next matching rank (eg, the 1-1b fundus image) may be subjected to homography transformation ( S1340 ). When the 1-1b fundus image is subjected to homography conversion, the feature points of the 1-1b fundus image are projected onto another fundus image (ie, the 1-1a fundus image). With respect to the 1-1b fundus image, if the change before and after homography transformation does not satisfy the validity condition, the 1-1b fundus image is not matched and is not used to generate a wide-angle fundus image.

일 실시예에서, 상기 유효성 조건은 호모그래피 변환 전후의 영상 프레임의 면적 차이가 미리 설정된 임계치 미만일 경우에 충족되는 것으로 설정될 수도 있다. 상기 임계치는 호모그래피 변환 전/후의 영상 프레임의 픽셀 면적 차이로서 면적 변화량 자체 또는 면적 변화율일 수도 있다. 면적 변화율이 임계치로 사용될 경우, 상기 임계치는 대략 15% 내지 5%의 값으로 설정될 수도 있다. 예를 들어, 상기 임계치는 10%일 수도 있다. 그러면, 제1-1b 안저영상의 호모그래피 변환 전/후의 차이가 10% 보다 클 경우 상기 제1-1b 안저영상은 추가 정합 및 합성 대상에서 제외된다. In an embodiment, the validity condition may be set to be satisfied when a difference in area between image frames before and after homography transformation is less than a preset threshold. The threshold value is a pixel area difference of an image frame before/after homography conversion, and may be an area change amount itself or an area change rate. When the area change rate is used as a threshold, the threshold may be set to a value of approximately 15% to 5%. For example, the threshold may be 10%. Then, when the difference between before and after homography conversion of the 1-1b fundus image is greater than 10%, the 1-1b fundus image is excluded from the additional registration and synthesis target.

그 결과, 3차원 구형 물체의 뷰 변환을 표현하기 위해 2차원 호모그래피를 적용하는 것의 부적절함 및 작은 중첩 또는 불충분한 텍스쳐로 인해 제한된 수의 특징점 매칭의 실패 등을 포함한, 정합의 부정확성을 야기하는 문제가 적어도 부분적으로 해소된다. As a result, inaccuracies of registration, including the inappropriateness of applying 2D homography to represent the view transformation of a 3D spherical object, and failure of matching a limited number of feature points due to small overlap or insufficient texture, etc. The problem is at least partially resolved.

다시 도 10및 도 11를 참조하면, 단계(S1350)에서 혈관 마스크(또는 후처리된 혈관 마스크)에 기초하여 제1-1a 안저영상과 제1-1b 안저영상이 정합된다. Referring again to FIGS. 10 and 11 , the 1-1a fundus image and the 1-1b fundus image are matched based on the blood vessel mask (or the post-processed blood vessel mask) in step S1350 .

일 실시예에서, 단계(S1330)의 특징점 기반 정합 이후 재-정합을 위해, 상기 제1-1a 혈관 마스크와 제1-1b 혈관 마스크를 변형 정합(deformable registration)하여 제1-1a 안저영상과 제1-1b 안저영상을 재-정합할 수도 있다(S1350). In one embodiment, for re-registration after the feature point-based registration of step S1330, deformable registration is performed between the 1-1a blood vessel mask and the 1-1b blood vessel mask to match the 1-1a fundus image The 1-1b fundus image may be re-registered (S1350).

변형 정합(deformable registration)은 정합 대상을 자유롭게 변형 가능한 비선형 형태의 정합이다. 예를 들어, 직선의 정합 대상을 곡선, 사각형 또는 원형 등의 형태로 변형 가능할 수도 있다. Deformable registration is a non-linear form of registration in which a registration object can be freely deformed. For example, a matching target of a straight line may be deformable in a shape such as a curve, a rectangle, or a circle.

단계(S1350)에서 사용되는 변형 정합 알고리즘은, 예를 들어, B-Spline 알고리즘을 포함할 수도 있다. B-Spline 알고리즘은 두 영상 간의 픽셀 유사도가 높아지는 방향으로 반복적으로 최적화하는 정합 알고리즘이다. 가장 높은 유사도를 갖게 하는 파라미터를 결정하여 최적화된 정합 결과를 산출한다. The transformation matching algorithm used in step S1350 may include, for example, the B-Spline algorithm. The B-Spline algorithm is a matching algorithm that iteratively optimizes in the direction of increasing pixel similarity between two images. An optimized matching result is calculated by determining the parameter that has the highest similarity.

단계(S1310)에서 전술한 바와 같이, 제1-1a 혈관 마스크 및 제1-1b 혈관 마스크가 분할 모델에 의해 생성된 경우, 변형 정합의 입력은 보다 정교하게 추출된 혈관 영역을 기반으로 수행된다. As described above in step S1310, when the 1-1a blood vessel mask and the 1-1b blood vessel mask are generated by the segmentation model, the deformation registration is performed based on the more precisely extracted blood vessel region.

예를 들어, 제1-1a 혈관 마스크를 소스형상으로 제1-1b 혈관 마스크를 타겟형상으로 사용하여 B-스플라인(B-Spline) 알고리즘을 적용하면, 제1-1a 혈관 마스크의 하나 이상의 제어점을 추출하고 제1-1a 혈관 마스크의 형상을 제1-1b 혈관 마스크와의 픽셀 유사도롤 극대화하는 최적화 곡선을 갖도록 변형할 수도 있다. 그러면, 제1-1a 혈관 마스크와 제1-1b 혈관 마스크가 특징점 기반 정합 결과에 존재하는 오차들이 미세 조정되도록 재-정합될 수도 있다. For example, if the B-Spline algorithm is applied using the 1-1a blood vessel mask as the source shape and the 1-1b blood vessel mask as the target shape, one or more control points of the 1-1a blood vessel mask are obtained. After extraction, the shape of the 1-1a blood vessel mask may be modified to have an optimization curve that maximizes the pixel similarity to the 1-1b blood vessel mask. Then, the 1-1a blood vessel mask and the 1-1b blood vessel mask may be re-registered so that errors existing in the feature point-based matching result are finely adjusted.

또한, 상기 정합 방법은 (예컨대, 합성부(400)에 의해) 광각 안저영상을 생성하기 위해, 정합된 안저영상들을 합성하는 단계(S1400)를 포함한다. 단계(S1350)의 정합 결과에 기초하여 단계(S1300)에서 정합에 사용된 상기 제1-1a 안저영상 및 제1-1b 안저영상이 부분적으로 중첩된 단일 영상으로 합성된다(S1400). 상기 합성된 단일 영상은 합성된 제1-1a 안저영상 또는 제1-1b 안저영상의 영상 프레임 보다 확장된 영상 프레임을 가진다. 이로 인해, 단일 안저영상의 촬영영역 보다 더 넓은 뷰를 갖는, 합성영상이 생성된다(S1400). In addition, the registration method includes a step (S1400) of synthesizing the registered fundus images to generate a wide-angle fundus image (eg, by the synthesizing unit 400). Based on the registration result of step S1350, the 1-1a fundus image and the 1-1b fundus image used for registration in step S1300 are synthesized into a partially overlapping single image (S1400). The synthesized single image has an image frame that is larger than the image frame of the synthesized 1-1a fundus image or 1-1b fundus image. Due to this, a composite image having a wider view than a photographing area of a single fundus image is generated (S1400).

도 11에 도시된 바와 같이, 단계(S1400)의 합성 영상은 제1-1a 안저영상과 제1-1b의 중첩 부분 및 그 이외의 부분으로 이루어진다. As shown in FIG. 11 , the synthesized image of step S1400 includes the overlapping portion of the 1-1a fundus image and the 1-1b and other portions.

일 실시예에서, 상기 광각 안저영상을 생성하기 위한 제1-1a 안저영상과 제1-1b 안저영상을 합성하는 단계는: B-스플라인 최적화 이후, 혈관 마스크의 정합으로부터의 변위 벡터(displacement vector)를 산출하는 단계; 및 산출된 변위 벡터를 제1-1a 안저영상 또는 제1-1b 안저영상에 적용하는 단계를 포함할 수도 있다. 변위 벡터의 적용으로 인해 포토 몽타주가 확장된다. 상기 변위 벡터는 합성의 소스영상(예컨대, 제1-1a 안저영상)과 합성의 타겟 영상(예컨대, 제1-1b 안저영상)가 지정되면, 소스형상(예컨대, 제1-1a 혈관 마스크)과 타겟형상(예컨대, 제1-1b 혈관 마스크)의 각 지점들 간의 거리들의 합을 최소하는 파라미터에 대응할 수도 있다. In an embodiment, the step of synthesizing the 1-1a fundus image and the 1-1b fundus image for generating the wide-angle fundus image includes: After B-spline optimization, a displacement vector from registration of the vascular mask calculating ; and applying the calculated displacement vector to the 1-1a fundus image or the 1-1b fundus image. The photomontage is expanded due to the application of the displacement vector. When the source image of synthesis (eg, 1-1a fundus image) and the target image of synthesis (eg, 1-1b fundus image) are designated, the displacement vector includes a source shape (eg, 1-1a blood vessel mask) and It may correspond to a parameter that minimizes the sum of distances between points of the target shape (eg, the 1-1b blood vessel mask).

상기 변위 벡터는 소스영상의 에지형상에 대한 타겟영상의 에지형상의 거리 변환(Distance Transform, DT) 상의 탐색을 통해 산출될 수도 있다. 예를 들어, 소스영상의 에지형상에 대해 대상영상의 타겟형상을 거리맵 상에서 픽셀단위로 옮기면서 각 지점에서의 거리의 합을 각각 산출함으로써, 거리의 합이 최소가 되는 파라미터를 산출할 수도 있다. The displacement vector may be calculated through a search on a distance transform (DT) of the edge shape of the target image with respect to the edge shape of the source image. For example, a parameter that minimizes the sum of distances may be calculated by calculating the sum of distances at each point while moving the target shape of the target image in pixel units on the distance map with respect to the edge shape of the source image.

단계(S1400)에서 생성된 합성영상이 사용자에게 제공될 수도 있다. The synthesized image generated in step S1400 may be provided to the user.

일 실시예에서, 상기 단계(S1400)는: 제1-1a 안저영상과 제1-1b 간의 영상 사양(image specification)의 차이를 최소화하는 단계를 포함할 수도 있다. In an embodiment, the step ( S1400 ) may include: minimizing a difference in image specification between the 1-1a fundus image and the 1-1b .

상기 영상 사양은 영상 프레임에 나타난 외관(appearance)의 세기, 색상, 및/또는 대비(contrast)를 포함한다. 외부 광의 색상 세기(intensity), 산란, 눈꺼풀의 열림 등을 포함한, 안저영상에 영향을 미치는 촬영 요소의 변화로 인해 영상 프레임별로 개별적인 영상 사양을 가진다. 때문에, 몽타주를 위해 추가로 합성될 영상(즉, 제1-1b)과 기존의 영상(즉, 제1-1a 안저영상) 간의 영상 사양을 다를 수도 있다. 서로 다른 영상 사양을 갖는 안저영상이 정합되면, 중첩되는 영역은 서로 다른 픽셀 값을 가진다. 이를 해결하기 위해, 영상 사양의 차이가 최소화된다(S1400). The image specification includes intensity, color, and/or contrast of an appearance presented in an image frame. Each image frame has individual image specifications due to changes in imaging factors affecting the fundus image, including color intensity, scattering, and eyelid opening of external light. For this reason, image specifications may be different between an image to be additionally synthesized for montage (ie, 1-1b) and an existing image (ie, 1-1a fundus image). When fundus images having different image specifications are matched, overlapping regions have different pixel values. To solve this, the difference in image specifications is minimized (S1400).

일 실시예에서, 상기 제1-1a 안저영상과 제1-1b 간의 영상 사양(image specification)의 차이를 최소화하는 단계는: 정합으로 중첩된 영역의 주변의 색상왜곡을 제거하기 위해, 상기 제1-1a 안저영상의 픽셀에 대응하는 제1-2 안저 영상의 픽셀은 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계를 포함할 수도 있다. In an embodiment, the step of minimizing the difference in image specification between the 1-1a fundus image and the 1-1b includes: In order to remove color distortion around the overlapping region by registration, the first The method may include transforming the pixels of the 1-2 th fundus image corresponding to the pixels of the -1a fundus image to have the same intensity or color.

각 영상 간의 대응하는 픽셀 관계는 상기 대응하는 픽셀은 정합영상의 픽셀 좌표를 기준으로 결정된다. 단계(S1400)에서는 대응하는 픽셀은 재-정합영상의 픽셀 좌표를 기준으로 결정된다. The corresponding pixel relationship between the respective images is determined based on the pixel coordinates of the corresponding pixel of the registered image. In step S1400, the corresponding pixel is determined based on the pixel coordinates of the re-registered image.

그러면, 변형된 픽셀로 이루어진, 색상왜곡이 제거된 중첩 영역을 포함한 합성영상이 단일 영상으로 생성될 수도 있다. Then, a composite image including an overlapping region from which color distortion is removed, which is made of transformed pixels, may be generated as a single image.

일 실시예에서, 상기 제1-1a 안저영상과 제1-1b의 중첩 영역 및 경계에서 다중 해상도 스플라인 기법을 사용하여 1 안저영상과 제1-1b 간의 영상 사양(image specification)의 차이를 최소화할 수도 있다. In an embodiment, the difference in image specification between the first fundus image and 1-1b can be minimized by using a multi-resolution spline technique in the overlap region and boundary of the 1-1a fundus image and the 1-1b. may be

상기 다중 해상도 스플라인 기법은 제1-1a 안저영상과 제1-1b의 쌍의 중심 주변의 가중치들을 부여한 다음 가우시안 필터 및 라플라시안 필터를 적용하여 영상 프레임의 각 레이어 간의 영상 세기의 차이를 최소화할 수도 있다. 그러면, 도 11에 도시된 바와 같이, 영상 세기(intensity)의 차이가 제거된 광각 안저영상이 획득된다. The multi-resolution spline technique may minimize the difference in image intensity between each layer of an image frame by applying weights around the center of the 1-1a fundus image and the 1-1b pair, and then applying a Gaussian filter and a Laplacian filter. . Then, as shown in FIG. 11 , a wide-angle fundus image from which a difference in image intensity is removed is obtained.

제1-1 및 제1-1b의 색상 또는 세기가 상이한 경우, 도 8b에 도시된 바와 같이, 정합부분의 주변의 픽셀이 단일 색상 또는 세기로 보정된 정합영상을 획득할 수도 있다. When the colors or intensities of 1-1 and 1-1b are different from each other, as shown in FIG. 8B , a registered image in which pixels around the matching portion are corrected to a single color or intensity may be obtained.

이러한 영상 사양의 차이를 제거한 결과, 정합부분이 단일 영상으로 통일성을 갖는 광각 안저영상을 제공할 수도 있다(S1400). 그러면, 도 11에 도시된 바와 같이, 제1-1a 안저영상과 제1-1b의 일부가 서로 중첩된 정합영상이 획득될 수도 있다. 이 중첩된 정합 영상은 제1-1a 안저영상과 제1-1b 안저영상의 영상 특징들이 미세 조정되어 정합된 결과를 시각화한 것이다. As a result of removing the difference in image specifications, a wide-angle fundus image having uniformity in the matching portion as a single image may be provided ( S1400 ). Then, as shown in FIG. 11 , a registered image in which the 1-1a fundus image and a part of 1-1b overlap each other may be obtained. The superimposed registration image visualizes the registration result by fine-tuning the image features of the 1-1a fundus image and the 1-1b fundus image.

이와 같은 특징점 기반 정합 및 변형 정합으로 이루어진 이단 정합을 통해 보다 정확한 정합영상을 얻을 수도 있다.A more accurate registered image may be obtained through two-stage registration consisting of such feature point-based registration and deformation registration.

상기 단계(S1300) 및 단계(S1400)는 다음 정합 순위를 갖는 안저영상 및 이미 생성된 합성영상에 대해 반복하여 수행된다. 유효성 검증을 통과하지 못한 안저영상이 존재하지 않는 한, 단계(S1100)에서 획득된 복수의 안저영상 전체에 대해서 정합 순서에 따라 단계(S1300) 및 단계(S1400)가 반복 수행된다. 이를 통해, 제1 광각 안저영상 및/또는 제2 광각 안저영상이 생성될 수도 있다. Steps (S1300) and (S1400) are repeatedly performed on the fundus image having the next matching order and the already generated synthetic image. As long as there is no fundus image that has not passed the validation, steps S1300 and S1400 are repeatedly performed according to the registration order for all of the plurality of fundus images acquired in step S1100. Through this, the first wide-angle fundus image and/or the second wide-angle fundus image may be generated.

예를 들어, 초기 안저영상이 선택되면, 제1-1 그룹 내 정합 순위로부터 제1-4 그룹 내 정합 순위에 따라 나머지 안저영상이 합성되고, 최종 광각 안저영상이 생성된다. 전체 제1A 내지 제1N 안저영상들로 이루어진 제1 안저영상 세트에 대해서, 제1-1a 내지 제1-1n 안저영상들로 이루어진 제1-1 그룹의 정합 순서; 제1-2a 내지 제1-2n 안저영상들로 이루어진 제1-2 그룹의 정합 순서; 제1-3a 내지 제1-3n 안저영상들로 이루어진 제1-3 그룹의 정합 순서; 제1-4a 내지 제1-4n 안저영상들로 이루어진 제1-4 그룹의 정합 순서로 합성됨으로써, 제1 광각 안저영상이 생성될 수도 있다. For example, when the initial fundus image is selected, the remaining fundus images are synthesized according to the registration order within the group 1-4 from the registration order within the 1-1 group, and a final wide-angle fundus image is generated. a registration order of the 1-1 group consisting of the 1-1a to 1-1n fundus images with respect to the first fundus image set consisting of the entire 1A to 1N fundus images; the registration order of the 1-2 group consisting of 1-2a-th to 1-2n-th fundus images; the registration sequence of the 1-3 group consisting of the 1-3a to 1-3n fundus images; The first wide-angle fundus image may be generated by synthesizing the 1-4th group consisting of the 1-4a to 1-4n fundus images in the matching order.

대안적인 실시예들에서, 상기 이미 합성된 광각 안저영상에 추가될 다른 안저영상은 다른 그룹 내 안저영상들을 정합하여 합성한 서브 광각 안저영상일 수도 있다. 예를 들어, 제1-1 그룹 내 안저영상들을 정합하여 제1-1 서브 광각 안저영상을 생성하고, 제1-2 그룹 내 안저영상들을 정합하여 제1-2 서브 광각 안저영상을 생성하면, 상기 제1-1 서브 광각 안저영상과 제1-2 서브 광각 안저영상을 정합하여 보다 확장된 광각 안저영상을 생성할 수도 있다. In alternative embodiments, another fundus image to be added to the already synthesized wide-angle fundus image may be a sub-wide-angle fundus image synthesized by matching fundus images in other groups. For example, when the 1-1 sub wide-angle fundus image is generated by registering the fundus images in the 1-1 group, and the 1-2 sub wide-angle fundus image is generated by registering the fundus images in the 1-2 group, An expanded wide-angle fundus image may be generated by registering the 1-1 sub wide-angle fundus image and the 1-2 sub wide-angle fundus image.

이 경우, 제1-1 서브 광각 안저영상과 제1-2 서브 광각 안저영상의 정합 및 합성은 각 서브 광각 안저영상 전체를 통해 수행되거나, 또는 각 서브 광각 안저영상 중 하나의 안저영상을 통해 수행될 수도 있다. 예를 들어, 제1-1 서브 광각 안저영상과 제1-2 서브 광각 안저영상을 정합 및 합성할 경우, 제1-2 그룹 내 가장 높은 정합 순위를 갖는 첫번?? 안저영상과 제1-1 그룹 내 가장 낮은 정합 순위를 갖는 마지막 안저영상이 사용될 수도 있다. In this case, the registration and synthesis of the 1-1 sub wide-angle fundus image and the 1-2 sub wide-angle fundus image are performed through the entire sub wide-angle fundus image, or performed through one fundus image among each sub wide-angle fundus image it might be For example, when registering and synthesizing the 1-1 sub wide-angle fundus image and the 1-2 sub wide-angle fundus image, the first ?? The fundus image and the last fundus image having the lowest matching rank in the 1-1 group may be used.

상기 제2 측면의 장치(10)는 이러한 제1 광각 안저영상과 제2 광각 안저영상을 사용하여 각각의 광각 안저영상에 대응하는 안구 영역에서 발생했던 광각 안저 변화를 검출할 수도 있다. 여기서, 안구 영역은 생성된 광각 안저영상에 대응하는 안구 영역이다. The apparatus 10 of the second aspect may detect a wide-angle fundus change occurring in an eyeball region corresponding to each wide-angle fundus image by using the first wide-angle fundus image and the second wide-angle fundus image. Here, the eyeball region is an eyeball region corresponding to the generated wide-angle fundus image.

광각 안저 변화를 검출하는 과정은, 도 1 내지 도 8을 참조하여 전술한 제1 안저영상 및 제2 안저영상 대신, 상기 제1 광각 안저영상 및 제2 광각 안저영상을 사용하도록 변경된 것이므로, 자세한 설명은 생략한다. Since the process of detecting the wide-angle fundus change is changed to use the first wide-angle fundus image and the second wide-angle fundus image instead of the first and second fundus images described above with reference to FIGS. 1 to 8, detailed description is omitted.

이상에서 설명한 실시예들에 따른 장치 및 안저 변화 검출 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. According to the embodiments described above The operation by the apparatus and the fundus change detection method may be at least partially implemented as a computer program and recorded in a computer-readable recording medium. For example, embodied with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor for performing any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be any device that may be incorporated into or may be a computing device such as a desktop computer, laptop computer, notebook, smart phone, or the like. A computer is a device having one or more alternative and special purpose processors, memory, storage, and networking components (either wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, an operating system such as Apple OS X or iOS, a Linux distribution, or Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording identification devices in which computer-readable data is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage identification device, and the like. In addition, the computer-readable recording medium may be distributed in a network-connected computer system, and the computer-readable code may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment may be easily understood by those skilled in the art to which the present embodiment belongs.

이상에서 살펴본 본 출원은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 출원의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 출원의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.Although the present application reviewed above has been described with reference to the embodiments shown in the drawings, this is merely exemplary and those skilled in the art will understand that various modifications and variations of the embodiments are possible therefrom. However, such modifications should be considered to be within the technical protection scope of the present application. Accordingly, the true technical protection scope of the present application should be determined by the technical spirit of the appended claims.

본 출원의 일 측면에 따른 안저 변화 검출 방법은 4차 산업 기술 중 하나인 기계 학습(machine learning)을 이용하여 a) 혈관 영역을 추출할 수도 있고, b) 안저영상 내 관심영역을 결정할 수도 있고, c) 안저 변화를 검출할 수도 있다. The fundus change detection method according to an aspect of the present application may use machine learning, which is one of the quaternary industrial technologies, to a) extract a blood vessel region, b) determine a region of interest in a fundus image, c) It is also possible to detect fundus changes.

안저 변화를 검출함에 있어서, 별도의 레이저 스캔 장치를 요구하지 않고, 전술한 과정을 통해 안저 카메라(fundus camera)를 이용하여 쉽게 얻을 수 있는 안저영상만으로도 안저 변화를 검출할 수도 있다. 안저 카메라는 침습적인 처치가 필요하지 않고 방사선을 사용하지 않을 뿐만 아니라 촬영 시간이 수 분 이내로 짧다. 이러한 안저 카메라를 이용한 안저 검사는 비용이 매우 저렴하다(현재 보험수가 7990원, 일반수가 20770원)이다. 또한, 안저 카메라는 거의 모든 안과의원 및 안과병원에 보급되어 있을 뿐만 아니라 다수의 검진센터들도 보유하고 있어, 접근성, 보급성이 뛰어나다. In detecting the fundus change, a fundus change may be detected only with a fundus image that can be easily obtained using a fundus camera through the above-described process without requiring a separate laser scanning device. The fundus camera does not require invasive treatment, does not use radiation, and has a short imaging time of less than a few minutes. Fundus examination using such an fundus camera is very inexpensive (currently, 7,990 won for insurance, 20,770 won for general). In addition, fundus cameras are not only distributed to almost all ophthalmology clinics and ophthalmology hospitals, but also have a number of examination centers, so accessibility and dissemination are excellent.

이러한 장점을 갖는 안저 사진 촬영을 이용하여 안저 변화를 검출할 수 있다면, 안저 변화에 관련된 다양한 안구 질환을 판독하는 것을 지원할 수 있어, 획기적인 발전을 이룰 것으로 예상된다. If fundus changes can be detected using fundus photography having these advantages, it is possible to support reading of various eye diseases related to fundus changes, and it is expected to achieve a breakthrough.

Claims (15)

프로세서를 포함한 컴퓨팅 장치에 의해 수행되는 정합 방법에 있어서,
대상자의 안구를 제1 및 제2 시점에서 각각 촬영한 제1 및 제2 안저영상을 획득하는 단계;
안구 내 혈관에 기초하여 제1 및 제2 안저영상을 정합하는 단계;
정합 영상에서 제1 안저영상 내 관심영역 및 제2 안저영상 내 관심영역을 검출하는 단계; 및
제1 안저영상의 관심영역 영상과 제2 안저영상 내 관심영역 영상에 기초하여 제1 시점에서 제2 시점 동안의 안저 변화를 검출하는 단계를 포함하는 것을 특징으로 하는 안저 변화 검출 방법.
A matching method performed by a computing device including a processor, comprising:
acquiring first and second fundus images obtained by photographing the subject's eyes at first and second time points, respectively;
registering the first and second fundus images based on intraocular blood vessels;
detecting the region of interest in the first fundus image and the region of interest in the second fundus image from the matched image; and
Fundus change detection method comprising the step of detecting a fundus change from a first time point to a second time point based on the region of interest image in the first fundus image and the region of interest image in the second fundus image.
제1항에 있어서, 상기 제1 안저영상과 제2 안저영상을 정합하는 단계는,
제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상을 제2 안저영상에 정합하는 단계;
상기 제1 안저영상에서 혈관 영역을 나타낸 제1 혈관 마스크를 생성하는 단계;
상기 제2 안저영상에서 혈관 영역을 나타낸 제2 혈관 마스크를 생성하는 단계; 및
상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합하는 단계를 포함하는 것을 특징으로 하는 안저 변화 검출 방법.
According to claim 1, wherein the step of matching the first fundus image and the second fundus image,
matching the first fundus image to the second fundus image based on the feature points of the first and second fundus images;
generating a first blood vessel mask representing a blood vessel region in the first fundus image;
generating a second blood vessel mask representing a blood vessel region in the second fundus image; and
and re-registering the first fundus image and the second fundus image by deformable registration of the first blood vessel mask and the second blood vessel mask.
제2항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
상기 제1 안저영상 내 영역 특성에 기초한 혈관 추출 모델을 이용하여 상기 제1 안저영상의 적어도 일부의 혈관 형상을 추출하는 단계; 및
혈관 영역에 대응한 형상을 갖는 혈관 마스크를 생성하는 단계를 포함하고,
상기 혈관 추출 모델은,
입력영상 내 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된 것을 특징으로 하는 안저 변화 검출 방법.
The method of claim 2, wherein the generating of the first blood vessel mask from the first fundus image comprises:
extracting a blood vessel shape of at least a portion of the first fundus image using a blood vessel extraction model based on region characteristics in the first fundus image; and
creating a vascular mask having a shape corresponding to the vascular region;
The blood vessel extraction model is
Fundus change detection method, characterized in that it is learned to output the blood vessels in the input image as a vessel probability map (Vessel Probaibility Map).
제2항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
추출된 혈관 형상을 혈관 영역으로 포함한 영상을 이진화하여 이진화 혈관 마스크를 생성하는 단계;
이진화 혈관 마스크를 포함한 영상을 반전(inverted) 처리하여 혈관과 외부 경계 사이의 밸리(velly)를 검출하는 단계; 및
밸리 내부가 상기 혈관을 나타내도록 상기 밸리 내부를 채우는 단계를 더 포함하는 것을 특징으로 하는 안저 변화 검출 방법.
The method of claim 2, wherein the generating of the first blood vessel mask from the first fundus image comprises:
generating a binarized blood vessel mask by binarizing an image including the extracted blood vessel shape as a blood vessel region;
detecting a valley between a blood vessel and an external boundary by inverting the image including the binarized blood vessel mask; and
Fundus change detection method, characterized in that it further comprises the step of filling the inside of the valley so that the inside of the valley represents the blood vessel.
제2항에 있어서, 상기 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상을 제2 안저영상에 정합하는 단계는,
영상의 크기와 회전에 불변하는 특징을 추출하는 특징 서술자를 통해 적어도 하나의 특징점을 상기 제1 및 제2 안저영상에서 추출하는 단계;
상기 제1 및 제2 안저영상에서 추출된 특징점 중 하나 이상의 특징점을 샘플링하는 단계; 및
샘플링된 특징점에 기초하여 상기 제1 및 제2 안저영상을 강체 정합하는 단계를 포함하는 것을 특징으로 하는 안저 변화 검출 방법.
The method of claim 2, wherein the step of matching the first fundus image to the second fundus image based on the feature points of the first and second fundus images comprises:
extracting at least one feature point from the first and second fundus images through a feature descriptor for extracting features that are invariant to the size and rotation of the image;
sampling at least one of the feature points extracted from the first and second fundus images; and
Fundus change detection method comprising the step of rigid body registration of the first and second fundus images based on the sampled feature points.
제1항에 있어서,
상기 관심영역은 시신경 유두 부분 및 황반 부분 중 하나 이상을 포함하고,
상기 제1 안저영상 내부의 하나 이상의 관심영역을 검출하는 단계는,
상기 정합된 제1 및 제2 안저영상을 제1 관심영역 추정 모델에 적용하여 상기 정합된 제1 및 제2 안저영상에서 관심영역의 위치를 각각 검출하며,
상기 제1 관심영역 추정 모델은,
상기 시신경 유두 부분의 x좌표 및 y좌표 중 하나 이상, 또는 상기 황반 부분의 x좌표 및 y좌표 중 하나 이상을 출력하도록 모델링된 것을 특징으로 하는 안저 변화 검출 방법.
According to claim 1,
The region of interest includes at least one of an optic nerve papilla portion and a macular portion,
The step of detecting one or more regions of interest in the first fundus image,
applying the matched first and second fundus images to a first ROI estimation model to detect the positions of the ROIs in the matched first and second fundus images, respectively;
The first region of interest estimation model,
Fundus change detection method, characterized in that the model is modeled to output at least one of the x-coordinate and the y-coordinate of the optic disc portion, or at least one of the x-coordinate and the y-coordinate of the macula portion.
제1항에 있어서,
상기 관심영역은 이상소견 영역을 포함하고,
상기 제1 안저영상 내부의 하나 이상의 관심영역을 검출하는 단계는,
상기 정합된 제1 및 제2 안저영상을 제2 관심영역 추정 모델에 적용하여 상기 정합된 제1 및 제2 안저영상에서 관심영역의 위치를 각각 검출하며,
상기 제2 관심영역 추정 모델은,
입력된 안저영상이 질환 영상 그룹에 속하는지 여부를 분류하도록 모델링된 것을 특징으로 하는 안저 변화 검출 방법.
According to claim 1,
The region of interest includes an abnormal finding region,
Detecting one or more regions of interest in the first fundus image comprises:
The registered first and second fundus images are applied to a second ROI estimation model to detect the positions of the ROIs in the matched first and second fundus images, respectively;
The second region of interest estimation model,
A fundus change detection method, characterized in that the input fundus image is modeled to classify whether or not it belongs to a disease image group.
제1항에 있어서,
상기 관심영역은 혈관에 대응하는 영역을 포함하고,
상기 혈관 영역의 위치는 제1 안저영상에서 생성된 혈관 마스크의 위치인 것을 특징으로 하는 안저 변화 검출 방법.
According to claim 1,
The region of interest includes a region corresponding to a blood vessel,
The position of the blood vessel region is a fundus change detection method, characterized in that the position of the blood vessel mask generated in the first fundus image.
제1항에 있어서, 상기 제1 시점과 제2 시점 동안의 안저 변화를 산출하는 단계는,
상기 제1 및 제2 안저영상을 변화 검출 모델에 적용하여 안저 변화를 검출하는 단계를 포함하고,
상기 변화 검출 모델은,
상기 제1 및 제2 안저영상에서 제1 특징의 세트 및 제2 특징의 세트를 각각 추출하고,
상기 제1 및 제2 특징의 세트의 특징 간 상관 맵을 산출하고,
상기 상관 맵에 기초하여 상기 제1 및 제2 안저영상의 쌍이 안저 변화를 갖는
그룹에 속하는지 분류하도록 모델링된 것을 특징으로 하는 안저 변화 검출 방법.
The method of claim 1, wherein calculating the fundus change during the first time point and the second time point comprises:
and detecting a fundus change by applying the first and second fundus images to a change detection model,
The change detection model is
extracting a set of first features and a set of second features from the first and second fundus images, respectively;
compute a correlation map between features of the first and second sets of features;
Based on the correlation map, the pair of the first and second fundus images has a fundus change
Fundus change detection method, characterized in that it is modeled to classify whether it belongs to a group.
제1항에 있어서, 상기 제1 시점과 제2 시점 동안의 안저 변화를 산출하는 단계는,
상기 제1 안저영상 내 상기 검출된 관심영역과 상기 제2 안저영상 내 상기 검출된 관심영역의 색상을 픽셀 단위로 비교하여 변화를 검출하는 단계를 포함하는 것을 특징으로 하는 안저 변화 검출 방법.
The method of claim 1, wherein calculating the fundus change during the first time point and the second time point comprises:
and detecting a change by comparing the color of the detected region of interest in the first fundus image and the detected region of interest in the second fundus image in units of pixels.
제1항에 있어서,
상기 제1 안저영상은 제1 시점에서 전체 안구 영역의 서브 영역을 각각 촬영한 복수의 영상 프레임을 합성한 제1 광각 안저영상이고,
상기 제2 안저영상은 제2 시점에서 상기 전차 안구 영역의 대응 서브 영역을 각각 촬영한 복수의 영상 프레임을 합성한 제2 광각 안저영상인 것을 특징으로 하는 안저 변화 검출 방법.
According to claim 1,
The first fundus image is a first wide-angle fundus image obtained by synthesizing a plurality of image frames obtained by photographing each sub-region of the entire eye region at a first time point,
The second fundus image is a second wide-angle fundus image obtained by synthesizing a plurality of image frames obtained by photographing the corresponding sub-regions of the front eye region at a second time point.
제1항에 있어서,
안저 변화를 검출하기 이전에, 상기 제1 또는 제2 광각 안저영상을 생성하는 단계를 더 포함하고, 상기 제1 또는 제2 광각 안저영상을 생성하는 단계는,
동일한 시점에서 대상자의 안구를 촬영한 상기 복수의 영상 프레임을 획득하는 단계 - 상기 복수의 영상 프레임 중 적어도 하나의 영상 프레임은 적어도 하나의 다른 영상 프레임과 부분적으로 중첩됨;
상기 복수의 영상 프레임의 제1 영상 프레임을 제2 영상 프레임과 정합하는 단계; 및
광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 영상 프레임의 적어도 일부 영역과 상기 제2 영상 프레임의 적어도 일부가 중첩한 합성영상을 생성하는 단계를 포함하는 것을 특징으로 하는 안저 변화 검출 방법.
According to claim 1,
Prior to detecting the fundus change, the method further comprises generating the first or second wide-angle fundus image, wherein the generating of the first or second wide-angle fundus image comprises:
obtaining the plurality of image frames obtained by photographing the subject's eyeballs at the same time point, wherein at least one image frame among the plurality of image frames partially overlaps with at least one other image frame;
matching a first image frame of the plurality of image frames with a second image frame; and
Fundus change, comprising the step of generating a composite image in which at least a partial region of the first image frame and at least a portion of the second image frame are superimposed on the basis of the re-registration result to generate a wide-angle fundus image detection method.
컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제12항 중 어느 하나의 항에 따른 안저 변화 검출 방법을 수행하게 하는 컴퓨터 판독가능 기록매체.
A computer readable medium readable by a computing device and storing program instructions operable by the computing device, wherein the processor is configured to cause the program instructions to be executed by a processor of the computing device when the program instructions are executed by the processor of the computing device. A computer-readable recording medium for performing the method for detecting fundus changes according to any one of claims.
안저 카메라에 의해 촬영된 안저영상을 획득하는 영상 획득부 - 상기 안저영상은 제1 시점에 촬영된 대상자의 제1 안저영상 및 제2 시점에 촬영된 상기 대상자의 제2 안저영상을 포함함;
상기 안저영상에서 혈관 영역을 나타낸 혈관 마스크를 생성하고, 상기 제1 및 제2 안저영상의 혈관 마스크에 기초하여 제1 및 제2 안저영상을 정합하는 정합부; 및
정합 결과에 기초하여 제1 시점에서 제2 시점 동안의 안저 변화를 검출하는 안저 변화 검출부를 포함하는 장치.
an image acquisition unit for acquiring a fundus image taken by a fundus camera, wherein the fundus image includes a first fundus image of the subject photographed at a first time point and a second fundus image of the subject photographed at a second time point;
a matching unit for generating a blood vessel mask representing a blood vessel region in the fundus image, and matching first and second fundus images based on the blood vessel masks of the first and second fundus images; and
A device comprising: a fundus change detector configured to detect a fundus change from a first time point to a second time point based on a matching result.
제1 시점에 촬영된 복수의 안저영상으로 이루어진 제1 안저영상 세트, 그리고 제2 시점에 촬영된 복수의 안저영상으로 이루어진 제2 안저영상 세트를 획득하는 영상 획득부 - 상기 제1 안저영상 세트 또는 제2 안저영상 세트 내 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨;
제1 안저영상 세트 또는 제2 안저영상 세트에 대해서, 각 세트의 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하고, 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 세트별 복수의 안저영상을 복수의 그룹으로 분류하고, 그리고 적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 분류부;
각 그룹에 포함된 안저영상들에 대해서, 해당 그룹 내 정합 순위에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상과 정합하는 정합부;
제1 또는 제2 안저영상 세트로부터 제1 또는 제2 광각 안저영상을 생성하기 위해, 정합 결과에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상으로부터 새로운 합성영상을 생성하는 합성부; 및
제1 시점에서 제2 시점 동안의 광각 안저영상에 대응하는 안구 영역에서의 안저 변화를 검출하는 안저 변화 검출부를 포함하는 것을 특징으로 하는 장치.
An image acquisition unit for acquiring a first fundus image set comprising a plurality of fundus images taken at a first time point, and a second fundus image set comprising a plurality of fundus images taken at a second time point - the first fundus image set or at least one fundus image in the second set of fundus images partially overlaps with at least one other fundus image;
With respect to the first fundus image set or the second fundus image set, at least one of an optic disc and a fovea is detected in a plurality of fundus images of each set, and depending on whether the optic disc and fovea are detected a classification unit that classifies the plurality of fundus images for each set into a plurality of groups, and assigns, to at least one group, a matching rank within the corresponding group to the fundus images for each group;
For the fundus images included in each group, a matching unit that matches the fundus image having the current registration order with the synthesized image generated by matching at least one fundus image up to the previous registration order based on the registration order within the group ;
In order to generate a first or second wide-angle fundus image from the first or second fundus image set, a fundus image having a current registration order is generated by registering at least one fundus image up to a previous registration order based on the registration result. a synthesizer for generating a new synthesized image from the synthesized image; and
and a fundus change detector configured to detect a fundus change in an eye area corresponding to a wide-angle fundus image from a first time point to a second time point.
KR1020210069166A 2020-06-12 2021-05-28 Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same KR102575370B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200071892 2020-06-12
KR1020200071892 2020-06-12

Publications (2)

Publication Number Publication Date
KR20210154731A true KR20210154731A (en) 2021-12-21
KR102575370B1 KR102575370B1 (en) 2023-09-08

Family

ID=79165733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210069166A KR102575370B1 (en) 2020-06-12 2021-05-28 Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same

Country Status (1)

Country Link
KR (1) KR102575370B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544377A (en) * 2006-07-28 2009-12-17 カール ツァイス メディテック アクチエンゲゼルシャフト How to adjust the fundus panoramic image
KR20160131261A (en) * 2015-05-06 2016-11-16 한화테크윈 주식회사 Method of monitoring interested area
KR101761510B1 (en) 2016-05-27 2017-07-26 이화여자대학교 산학협력단 Apparatus and method for generating fundus image filters for vascular visualization of fundus image
WO2018109640A1 (en) * 2016-12-15 2018-06-21 Novartis Ag Adaptive image registration for ophthalmic surgery
JP2018171177A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Fundus image processing device
KR20200057563A (en) * 2018-11-16 2020-05-26 서울여자대학교 산학협력단 Method, device and program for lung image registration for histogram analysis of lung movement and method and program for analysis of registered lung image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544377A (en) * 2006-07-28 2009-12-17 カール ツァイス メディテック アクチエンゲゼルシャフト How to adjust the fundus panoramic image
KR20160131261A (en) * 2015-05-06 2016-11-16 한화테크윈 주식회사 Method of monitoring interested area
KR101761510B1 (en) 2016-05-27 2017-07-26 이화여자대학교 산학협력단 Apparatus and method for generating fundus image filters for vascular visualization of fundus image
WO2018109640A1 (en) * 2016-12-15 2018-06-21 Novartis Ag Adaptive image registration for ophthalmic surgery
JP2018171177A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Fundus image processing device
KR20200057563A (en) * 2018-11-16 2020-05-26 서울여자대학교 산학협력단 Method, device and program for lung image registration for histogram analysis of lung movement and method and program for analysis of registered lung image

Also Published As

Publication number Publication date
KR102575370B1 (en) 2023-09-08

Similar Documents

Publication Publication Date Title
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
Haleem et al. A novel adaptive deformable model for automated optic disc and cup segmentation to aid glaucoma diagnosis
Giachetti et al. Accurate and reliable segmentation of the optic disc in digital fundus images
Shan et al. Automatic atlas-based three-label cartilage segmentation from MR knee images
Tang et al. Splat feature classification with application to retinal hemorrhage detection in fundus images
Harangi et al. Automatic exudate detection by fusing multiple active contours and regionwise classification
JP6577454B2 (en) On-axis gaze tracking system and method
Sedai et al. Segmentation of optic disc and optic cup in retinal fundus images using shape regression
KR20200004841A (en) System and method for guiding a user to take a selfie
CN108985210A (en) A kind of Eye-controlling focus method and system based on human eye geometrical characteristic
Abbasi-Sureshjani et al. Biologically-inspired supervised vasculature segmentation in SLO retinal fundus images
Mayya et al. Automated microaneurysms detection for early diagnosis of diabetic retinopathy: A Comprehensive review
KR102250694B1 (en) Method and device for predicting disease using segmentating vessel in eye image
CN109635669B (en) Image classification method and device and classification model training method and device
Giachetti et al. Multiresolution localization and segmentation of the optical disc in fundus images using inpainted background and vessel information
KR102250688B1 (en) Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography
CN113011450B (en) Training method, training device, recognition method and recognition system for glaucoma recognition
Thangaraj et al. Glaucoma diagnosis using support vector machine
Zhou et al. Segmentation of optic disc in retinal images using an improved gradient vector flow algorithm
Kumar et al. Deep Learning-assisted Retinopathy of Prematurity (ROP) Screening
KR102250689B1 (en) Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography
Jana et al. A semi-supervised approach for automatic detection and segmentation of optic disc from retinal fundus image
Baamonde et al. Feature definition and selection for epiretinal membrane characterization in optical coherence tomography images
KR102575370B1 (en) Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same
Mohammedhasan et al. A new deeply convolutional neural network architecture for retinal blood vessel segmentation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right