KR102575371B1 - Method for registrating fundus images to generate wide angle fundus image and device performing the same - Google Patents

Method for registrating fundus images to generate wide angle fundus image and device performing the same Download PDF

Info

Publication number
KR102575371B1
KR102575371B1 KR1020210069167A KR20210069167A KR102575371B1 KR 102575371 B1 KR102575371 B1 KR 102575371B1 KR 1020210069167 A KR1020210069167 A KR 1020210069167A KR 20210069167 A KR20210069167 A KR 20210069167A KR 102575371 B1 KR102575371 B1 KR 102575371B1
Authority
KR
South Korea
Prior art keywords
group
fundus
image
fundus image
blood vessel
Prior art date
Application number
KR1020210069167A
Other languages
Korean (ko)
Other versions
KR20210154732A (en
Inventor
박상준
김주영
이수찬
Original Assignee
서울대학교병원
국민대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원, 국민대학교산학협력단 filed Critical 서울대학교병원
Publication of KR20210154732A publication Critical patent/KR20210154732A/en
Application granted granted Critical
Publication of KR102575371B1 publication Critical patent/KR102575371B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

실시예들은 대상자의 안구를 촬영한 상기 복수의 안저영상을 획득하는 단계 - 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 상기 복수의 안저영상의 제1 안저영상을 제2 안저영상과 정합하는 단계; 및 광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 단계; 를 포함한, 광각 안저영상을 생성하기 위해 복수이 안저영상을 정합하는 방법 및 이를 수행하는 장치에 관한 것이다. Embodiments include obtaining a plurality of fundus images of the subject's eye - at least one fundus image of the plurality of fundus images partially overlaps with at least one other fundus image; Matching a first fundus image of the plurality of fundus images with a second fundus image; and generating a composite image in which at least a portion of the first fundus image overlaps with at least a portion of the second fundus image based on a re-registration result to generate a wide-angle fundus image. It relates to a method of matching multiple fundus images to generate a wide-angle fundus image and a device for performing the same.

Description

광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법 및 이를 수행하는 장치{METHOD FOR REGISTRATING FUNDUS IMAGES TO GENERATE WIDE ANGLE FUNDUS IMAGE AND DEVICE PERFORMING THE SAME}Method for registering multiple fundus images to generate a wide-angle fundus image and device for performing the same {METHOD FOR REGISTRATING FUNDUS IMAGES TO GENERATE WIDE ANGLE FUNDUS IMAGE AND DEVICE PERFORMING THE SAME}

본 발명은 안저영상을 정합하는 기술에 관한 것으로서, 보다 상세하게는 안저 카메라의 촬영각 보다 넓은 영역을 갖는 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법 및 이를 수행하는 장치에 관한 것이다.The present invention relates to a technology for registering fundus images, and more specifically, to a method for registering a plurality of fundus images to generate a wide-angle fundus image with a wider area than the shooting angle of a fundus camera, and a device for performing the same. .

광각 안저영상은 안구의 다양한 영역에서 발생하는 질환을 한눈에 통합적으로 시각화한 영상으로서, 대상자의 안구에 대한 종합적인 진단을 위해 요구되는 영상이다. Wide-angle fundus imaging is an image that comprehensively visualizes diseases occurring in various areas of the eye at a glance, and is an image required for a comprehensive diagnosis of the subject's eye.

광각 안저영상은 전통적인 몽타주 기법을 이용하여 획득되거나, 광각 안저영상용 장치(예컨대, OPTOS사의 레이저 스캔(laser scan) 장치)을 이용하여 획득된다. Wide-angle fundus images are acquired using a traditional montage technique, or using a wide-angle fundus imaging device (eg, a laser scan device from OPTOS).

전통적인 몽타주 기법은 망막 부분을 단편적으로 촬영한 다수의 부분 영상에서 공통된 영역을 정합함으로써 광저 안저영상을 생성한다. 그러나, 촬영대상 이외의 장애물이 존재하는 것에 영향을 받는 문제가 있다. The traditional montage technique creates a wide fundus image by matching common areas in multiple partial images of the retina taken piecemeal. However, there is a problem of being affected by the presence of obstacles other than the subject of photography.

흑백의 데이터를 추출하고 이를 다시 적정한 컬러 영상을 덮어 씌워 시각화하는, OPTOS사의 레이저 스캔 기술은 망막 전체의 80%에 이르는 200도의 매우 넓은 영역을 획득할 수 있다. 그러나, 레이저가 스캔하는 동안 모션 아티팩트(motion artifact) 등과 같은 오류가 발생할 수 있다. 또한, OPTOS 사의 레이저 스캔 장치가 일반적인 안저 사진 촬영 장치와 별도로 요구되는 한계가 있다.OPTOS' laser scanning technology, which extracts black-and-white data and visualizes it by overlaying it with an appropriate color image, can acquire a very wide area of 200 degrees, covering 80% of the entire retina. However, errors such as motion artifacts may occur while the laser is scanning. In addition, there is a limitation that OPTOS's laser scanning device is required separately from general fundus photography devices.

한국등록특허 제10-1761510호 (2017.07.26.)Korean Patent No. 10-1761510 (2017.07.26.)

본 발명의 일 측면에 따르면 안저 카메라의 촬영각 보다 넓은 영역을 갖는 광각 안저영상을 생성하기 위해 복수의 안구 영역을 복수의 안저영상을 정합하는 장치를 제공할 수 있다. According to one aspect of the present invention, an apparatus for matching a plurality of fundus images of a plurality of eye regions can be provided to generate a wide-angle fundus image having an area wider than the shooting angle of the fundus camera.

이 외에도, 광각 안저영상을 생성하기 위한 안저영상 정합 방법 및 이를 수행하게 하는 명령어들을 기록한 컴퓨터 판독가능한 기록매체를 제공할 수 있다.In addition, it is possible to provide a fundus image registration method for generating a wide-angle fundus image and a computer-readable recording medium on which instructions for performing the method are recorded.

본 출원의 일 측면에 따른 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법은 프로세서를 포함한 컴퓨팅 장치에 의해 수행된다. 상기 방법은: 대상자의 안구를 촬영한 상기 복수의 안저영상을 획득하는 단계 - 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 상기 복수의 안저영상의 제1 안저영상을 제2 안저영상과 정합하는 단계; 및 광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 단계를 포함할 수도 있다.A method of matching a plurality of fundus images to generate a wide-angle fundus image according to one aspect of the present application is performed by a computing device including a processor. The method includes: acquiring a plurality of fundus images of the eyeball of a subject - at least one fundus image of the plurality of fundus images partially overlaps with at least one other fundus image; Matching a first fundus image of the plurality of fundus images with a second fundus image; And in order to generate a wide-angle fundus image, it may include generating a composite image in which at least a portion of the first fundus image overlaps with at least a portion of the second fundus image based on a re-registration result.

일 실시예에서, 상기 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계는, 영상의 크기와 회전에 불변하는 특징을 추출하는 특징 서술자를 통해 적어도 하나의 특징점을 상기 제1 및 제2 안저영상에서 추출하는 단계; 상기 제1 및 제2 안저영상에서 추출된 특징점 중 하나 이상의 특징점을 샘플링하는 단계; 및 샘플링된 특징점에 기초하여 상기 제1 및 제2 안저영상을 강체 정합하는 단계를 포함할 수도 있다.In one embodiment, the step of matching the first fundus image and the second fundus image based on the feature points of the first and second fundus images includes at least using a feature descriptor that extracts features that are invariant to the size and rotation of the image. Extracting one feature point from the first and second fundus images; sampling one or more feature points among the feature points extracted from the first and second fundus images; And it may include rigid body registration of the first and second fundus images based on the sampled feature points.

일 실시예에서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는, 상기 제1 안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상의 적어도 일부의 혈관 형상을 추출하는 단계; 및 혈관 영역에 대응한 형상을 갖는 혈관 마스크를 생성하는 단계를 포함할 수도 있다. 상기 분할 모델은, 혈관 영역의 특성에 기초하여 학습된 모델로서, 입력영상 내 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된다. In one embodiment, the step of generating a first blood vessel mask from the first fundus image includes extracting the shape of at least some blood vessels of the first fundus image using a segmentation model based on region characteristics within the first fundus image. step; and generating a blood vessel mask having a shape corresponding to the blood vessel region. The segmentation model is a model learned based on the characteristics of the blood vessel region, and is learned to output the blood vessels in the input image as a vessel probability map.

일 실시예에서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는, 추출된 혈관 형상을 혈관 영역으로 포함한 영상을 이진화하여 이진화 혈관 마스크를 생성하는 단계; 이진화 혈관 마스크를 포함한 영상을 반전(inverted) 처리하여 혈관과 외부 경계 사이의 밸리(velly)를 검출하는 단계; 및 밸리 내부가 상기 혈관을 나타내도록 상기 밸리 내부를 채우는 단계를 더 포함할 수도 있다.In one embodiment, generating a first blood vessel mask from the first fundus image includes generating a binarized blood vessel mask by binarizing an image including the extracted blood vessel shape as a blood vessel area; detecting a valley between a blood vessel and an external boundary by inverting an image including a binarized blood vessel mask; and filling the inside of the valley so that the inside of the valley represents the blood vessels.

일 실시예에서, 상기 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 단계는, 상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합하는 단계를 포함할 수도 있다.In one embodiment, the step of re-registering the first fundus image and the second fundus image based on the first and second blood vessel masks includes deformable registration of the first blood vessel mask and the second blood vessel mask. ) may include the step of re-registering the first fundus image and the second fundus image.

일 실시예에서, 상기 광각 안저영상을 생성하는 단계는, 재-정합 영상을 기준으로 상기 제1 안저영상의 픽셀에 대응하는 제2 안저 영상의 픽셀이 상기 제1 안저영상의 픽셀과 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계; 및 상기 변형된 픽셀로 이루어진 영역을 포함한 광각 안저영상을 생성하는 단계를 포함할 수도 있다.In one embodiment, the step of generating the wide-angle fundus image includes pixels of the second fundus image corresponding to pixels of the first fundus image based on the re-registered image having the same intensity as the pixels of the first fundus image ( Transforming to have intensity or color; And it may also include generating a wide-angle fundus image including the area made up of the deformed pixels.

일 실시예에서, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크를 생성하는 단계는, 복수의 제1 안저영상이 획득된 경우, 각각의 제1 안저영상의 특징점에 기초하여 상기 복수의 제1 안저영상을 정합하는 단계; 안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상에서 제1 영역의 적어도 일부의 혈관 형상을 추출하는 단계; 및 상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계를 포함할 수도 있다.In one embodiment, the step of generating a first blood vessel mask representing at least a portion of the blood vessels in the first region may include, when a plurality of first fundus images are acquired, based on feature points of each of the first fundus images. Registering the first fundus image of; extracting the shape of at least a portion of blood vessels in a first region from the first fundus image using a segmentation model based on region characteristics within the fundus image; and generating a first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images.

일 실시예에서, 상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계는, 복수의 제1 안저영상의 추출된 혈관 형상을 비강체 정합하는 단계; 및 정합된 복수의 혈관 형상에 기초하여 상기 제1 혈관 마스크를 생성하는 단계를 포함할 수도 있다.In one embodiment, generating a first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images includes non-rigidly registering the extracted blood vessel shapes of the plurality of first fundus images; and generating the first blood vessel mask based on the plurality of registered blood vessel shapes.

일 실시예에서, 상기 비강체 정합하는 단계는, 서로 다른 두 개의 제1 안저영상의 혈관 확률맵에서 픽셀별(pixel-wise) 유사도가 높아지는 방향으로 정합할 수도 있다.In one embodiment, the non-rigid registration step may be performed in a direction that increases the pixel-wise similarity in the blood vessel probability maps of the two different first fundus images.

일 실시예에서, 상기 방법은: 상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하여 상기 시신경 유두 및 중심와 중 적어도 하나의 위치를 산출하는 단계; 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계; 및 적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계;를 더 포함할 수도 있다. 상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계는 각 그룹에 포함된 안저영상들이 전부 정합될 때까지 반복되며, 상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계에서 상기 제1 안저영상은 초기 안저영상 또는 이미 생성된 합성영상이고 상기 제2 안저영상은 현재의 정합 순위를 갖는 안저영상이다. In one embodiment, the method includes: prior to registering the plurality of fundus images, detecting at least one of the optic disc and the fovea in the plurality of fundus images, and detecting at least one of the optic disc and the fovea. calculating a location; Classifying the plurality of fundus images into a plurality of groups according to whether the optic nerve head and fovea are detected; And, for at least one group, assigning a matching rank within the group to the fundus image for each group. The step of matching the first and second fundus images and generating a composite image is repeated until all fundus images included in each group are matched, and registering the first and second fundus images and generating a composite image In this step, the first fundus image is an initial fundus image or a synthesized image that has already been created, and the second fundus image is a fundus image with the current registration rank.

일 실시예에서, 상기 시신경 유두 및 중심와 중 적어도 하나를 검출하여 위치를 산출하는 단계는, 딥러닝 모델을 사용해서 입력된 안저영상의 영상 프레임에서 시신경 유두 및 중심와 중 적어도 하나를 검출할 수도 있다. 상기 딥러닝 모델은: 다수의 컨볼루션 레이어를 포함하며 컨볼루션 특징맵을 출력하는 공유 컨볼루션 네트워크; 입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측하는 지역 지정 네트워크; 및 풀링 레이어 및 완전연결 레이어를 포함하며 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터에 기초하여 상기 관심지역에서 시신경 유두 또는 중심와를 검출하는 객체 검출 네트워크를 포함한다. In one embodiment, the step of calculating the position by detecting at least one of the optic nerve head and the fovea may include detecting at least one of the optic nerve head and the fovea in an image frame of an input fundus image using a deep learning model. The deep learning model includes: a shared convolutional network that includes multiple convolutional layers and outputs a convolutional feature map; A region designation network that generates an intermediate feature map by applying a sliding window method to the input convolutional feature map and predicts a region of interest where a candidate object is likely to be located based on the intermediate feature map; and an object detection network that includes a pooling layer and a fully connected layer and detects the optic nerve head or fovea in the region of interest based on the feature vector for the region of interest in the image frame initially input to the detection model.

일 실시예에서, 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계는: 상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계; 상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계; 상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및 상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계 중 적어도 하나의 단계를 포함할 수도 있다.In one embodiment, classifying the plurality of fundus images into a plurality of groups includes: classifying the fundus image in which both the optic nerve head and the fovea are detected into a first group; Classifying the fundus image in which only the optic nerve head is detected into a second group; Classifying the fundus image in which only the fovea is detected into a third group; and classifying the fundus image in which neither the optic nerve head nor the fovea are detected into a fourth group.

일 실시예에서, 상기 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계는: 상기 제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 각 그룹별로 각각의 기준 안저영상을 선택하는 단계; 및 상기 기준 안저영상을 사용하여 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 상기 제1 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되고, 상기 제2 그룹의 안저영상들에 대한 제2 그룹 내 정합 순위는 제2 그룹의 기준 안저영상의 시신경 유두와 제2 그룹 내 다른 안저영상 간의 거리에 기초하여 할당되고, 상기 제3 그룹의 안저영상들에 대한 제3 그룹 내 정합 순위는 제3 그룹의 기준 안저영상의 시신경 유두와 제3 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다.In one embodiment, the step of assigning a matching rank within the group to the fundus image for each group includes: for at least one group among the first to third groups, each reference fundus image for each group. Steps to choose; And it may include assigning a matching rank within the group to the fundus image of each group using the reference fundus image. The registration rank within the first group for the fundus images of the first group is assigned based on the distance between the optic nerve head of the reference fundus image of the first group and other fundus images within the first group, and the fundus images of the second group The registration rank within the second group is assigned based on the distance between the optic nerve head of the reference fundus image of the second group and other fundus images within the second group, and the within-third group for the fundus images of the third group. The registration rank may be assigned based on the distance between the optic nerve head of the reference fundus image of the third group and other fundus images within the third group.

일 실시예에서, 상기 제1 그룹 또는 제2 그룹의 기준 안저영상은 각 안저영상의 검출된 시신경 유두의 위치가 영상 프레임의 중심의 위치에 가장 가까운 것일 수도 있다.In one embodiment, the reference fundus image of the first or second group may be one in which the position of the detected optic nerve head of each fundus image is closest to the position of the center of the image frame.

일 실시예에서, 상기 제3 그룹의 기준 안저영상은 상기 제3 그룹 내 각 안저영상의 검출된 중심와의 위치가 영상 중심의 위치에 가장 가까운 것일 수도 있다.In one embodiment, the reference fundus image of the third group may be one in which the detected foveal position of each fundus image in the third group is closest to the position of the image center.

일 실시예에서, 상기 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계는: 상기 제4 그룹별 안저영상에 대해 제4 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 상기 제4 그룹 내 정합 순위는 상기 제4 그룹 내 각 안저영상의 특징점이 상기 제1 안저영상의 특징점에 매칭하는 정도에 기초하여 할당된다. In one embodiment, the step of allocating the within-group registration rank to the fundus image for each group may include: allocating a fourth within-group registration rank to the fundus image for each group. The matching rank within the fourth group is assigned based on the degree to which the feature points of each fundus image within the fourth group match the feature points of the first fundus image.

일 실시예에서, 상기 방법은: 그룹 간의 정합 순위를 설정하는 단계를 더 포함할 수도 있다. 상기 그룹 간의 정합 순위는 상기 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 상기 제1 그룹, 상기 제3 그룹, 상기 제2 그룹 및 제4 그룹의 순서로 설정된다. In one embodiment, the method may further include: setting a matching rank between groups. The matching rank between the groups is set in the order of the first group, the second group, the third group, and the fourth group, or the order of the first group, the third group, the second group, and the fourth group.

본 출원의 다른 일 측면에 따른 컴퓨팅 장치에 의해 판독가능 컴퓨터 판독가능 기록매체는 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장한다. 상기 프로그램 명령어는 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 상술한 실시예들에 따른 안저영상 정합 방법을 수행하게 한다. A computer-readable recording medium readable by a computing device according to another aspect of the present application stores program instructions operable by the computing device. When executed by a processor of the computing device, the program instruction causes the processor to perform the fundus image registration method according to the above-described embodiments.

본 출원의 또 다른 일 측면에 따른 장치는: 안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하고, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크를 생성하고, 상기 2 영역 내 혈관의 적어도 일부를 나타낸 제2 혈관 마스크를 생성하며, 상기 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 정합부; 및 광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 합성부를 포함할 수도 있다. A device according to another aspect of the present application includes: an image acquisition unit for acquiring a plurality of fundus images captured by a fundus camera - at least one fundus image of the plurality of fundus images is partially different from at least one other fundus image nested with; Based on the feature points of the first and second fundus images, the first fundus image and the second fundus image are matched, a first blood vessel mask representing at least a portion of the blood vessels in the first area is generated, and the blood vessels in the second area are generated. a registration unit that generates a second blood vessel mask showing at least a portion of the blood vessels, and re-registers the first fundus image and the second fundus image based on the first and second blood vessel masks; And in order to generate a wide-angle fundus image, it may include a synthesis unit that generates a composite image in which at least a portion of the first fundus image overlaps with at least a portion of the second fundus image based on a re-registration result.

본 출원의 또 다른 일 측면에 따른 장치는: 안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨; 상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하고, 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 복수의 그룹으로 분류하고, 그리고 적어도 하나의 그룹에 대해서, 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 분류부; 각 그룹에 포함된 안저영상들에 대해서, 해당 그룹 내 정합 순위에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상과 정합하는 정합부; 및 광각 안저영상을 생성하기 위해, 정합 결과에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상으로부터 새로운 합성영상을 생성하는 합성부를 포함할 수도 있다.A device according to another aspect of the present application includes: an image acquisition unit for acquiring a plurality of fundus images captured by a fundus camera - at least one fundus image of the plurality of fundus images is partially different from at least one other fundus image nested with; Before matching the plurality of fundus images, at least one of an optic disc and a fovea is detected in the plurality of fundus images, and the plurality of fundus images are selected according to whether the optic disc and the fovea are detected. a classification unit that classifies into a plurality of groups and, for at least one group, assigns a matching rank within the group to the fundus image for each group; For the fundus images included in each group, a registration unit that matches the fundus image with the current registration rank with a synthetic image generated by matching at least one fundus image up to the previous registration rank based on the registration rank within the group. ; and a synthesis unit that generates a new composite image from the composite image generated by matching the fundus image with the current registration rank with at least one fundus image up to the previous registration rank based on the registration result, in order to generate a wide-angle fundus image. You may.

본 발명의 일 측면에 따른 장치는 촬영 범위가 서로 상이한 복수의 안저영상을 정합하여 광각 안저영상을 생성할 수 있다. 그 결과, 상기 장치는 횡단적 분석도 지원할 수 있다. The device according to one aspect of the present invention can generate a wide-angle fundus image by matching a plurality of fundus images with different shooting ranges. As a result, the device can also support cross-sectional analysis.

상기 장치는 횡단적 분석을 위한 정합 영상과 같은 시각화 영상을 생성하기 위해서, OPTOS 사의 레이저 스캔 장치와 같은 별도의 장치를 사용할 필요가 없다. 또한, 상기 장치는 안저 촬영 환경 및/또는 촬영 기기에 영향을 받지 않고 이러한 시각화 영상을 생성할 수도 있다. The device does not require the use of a separate device, such as a laser scanning device from OPTOS, to generate visualization images such as registered images for cross-sectional analysis. Additionally, the device may generate such visualization images without being affected by the fundus imaging environment and/or imaging device.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 발명의 일 실시예에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법을 수행하는 장치의 개념도이다.
도 2는, 본 발명의 일 실시예에 따른, 시신경 유두/황반 검출 모델의 개략적인 네트워크 아키텍쳐를 도시한다.
도 3은, 본 발명의 일 실시예에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법의 흐름도이다.
도 4는, 도 3의 광각 안저영상을 생성하기 위한 안저영항 정합 방법의 개략도이다.
도 5a 내지 도 5d는, 본 발명의 일 실시예에 따른, 추출된 혈관 마스크를 후처리한 결과를 도시한 도면이다.
도 6a 및 도 6b는, 본 발명의 일 실시예에 따른, 특징점 기반 정합 결과를 도시한 도면이다.
도 7a 및 도 7 b는, 본 발명의 일 실시예에 따른, 혈관 마스크 기반 정합 결과를 도시한 도면이다.
도 8a 및 도 8b는, 본 발명의 일 실시예에 따른, 색상왜곡을 제거한 정합 영상을 도시한 도면이다.
도 9 및 도 10은, 도 3의 방법에 따른 최종 광각 안저영상의 생성 결과를 도시한다.
In order to more clearly explain the technical solutions of the embodiments of the present invention or the prior art, drawings necessary in the description of the embodiments are briefly introduced below. It should be understood that the drawings below are for illustrative purposes only and not for limiting purposes of the embodiments of the present specification. Additionally, for clarity of explanation, some elements may be shown in the drawings below with various modifications, such as exaggeration or omission.
1 is a conceptual diagram of a device that performs a fundus image registration method for generating a wide-angle fundus image, according to an embodiment of the present invention.
Figure 2 shows a schematic network architecture of the optic disc/macula detection model, according to one embodiment of the present invention.
Figure 3 is a flowchart of a fundus image registration method for generating a wide-angle fundus image, according to an embodiment of the present invention.
FIG. 4 is a schematic diagram of a fundus domain matching method for generating the wide-angle fundus image of FIG. 3.
Figures 5A to 5D are diagrams showing the results of post-processing the extracted blood vessel mask according to an embodiment of the present invention.
Figures 6a and 6b are diagrams showing feature point-based matching results according to an embodiment of the present invention.
FIGS. 7A and 7B are diagrams showing blood vessel mask-based registration results according to an embodiment of the present invention.
FIGS. 8A and 8B are diagrams illustrating a registered image with color distortion removed, according to an embodiment of the present invention.
Figures 9 and 10 show the results of generating the final wide-angle fundus image according to the method of Figure 3.

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is only intended to refer to specific embodiments and is not intended to limit the invention. As used herein, singular forms include plural forms unless phrases clearly indicate the contrary. As used in the specification, the meaning of "comprising" refers to specifying a particular characteristic, area, integer, step, operation, element and/or ingredient, and the presence or presence of another characteristic, area, integer, step, operation, element and/or ingredient. This does not exclude addition.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined differently, all terms including technical and scientific terms used herein have the same meaning as those generally understood by those skilled in the art in the technical field to which the present invention pertains. Terms defined in commonly used dictionaries are further interpreted as having meanings consistent with related technical literature and currently disclosed content, and are not interpreted in ideal or very formal meanings unless defined.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

도 1은, 본 발명의 일 실시예에 따른, 안저영상 정합 방법을 수행하는 장치의 개념도이다. 1 is a conceptual diagram of a device that performs a fundus image registration method according to an embodiment of the present invention.

도 1을 참조하면, 상기 장치(10)는 안저 카메라(미도시)로부터 안저영상을 획득하도록 구성된다. 상기 장치(10)는 영상 획득부(100); 특징점 정합부(300); 및 혈관 정합부(500)를 포함할 수도 있다. Referring to FIG. 1, the device 10 is configured to acquire a fundus image from a fundus camera (not shown). The device 10 includes an image acquisition unit 100; Feature point matching unit 300; and a blood vessel matching unit 500.

실시예들에 따른 상기 장치(10)는 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 장치는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치”, 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The device 10 according to embodiments may be entirely hardware, entirely software, or have aspects that are partly hardware and partly software. For example, a device may collectively refer to hardware equipped with data processing capabilities and operating software for running it. In this specification, terms such as “unit,” “module,” “device,” or “system” are intended to refer to a combination of hardware and software driven by the hardware. For example, the hardware may be a data processing device that includes a Central Processing Unit (CPU), Graphics Processing Unit (GPU), or other processor. Additionally, software may refer to a running process, object, executable, thread of execution, program, etc.

영상 획득부(100)는 대상자의 안구를 촬영한 대상자의 안저영상(또는 안저 사진)을 획득하도록 구성된다. The image acquisition unit 100 is configured to acquire a fundus image (or fundus photograph) of a subject by photographing the subject's eye.

특정 실시예들에서, 안저 카메라는 대상자의 안구를 촬영한 촬영 데이터를 장치(10)로 유/무선 전기 통신을 통해 전송한다. 상기 영상 획득부(100)는 외부의 안저 카메라로부터 촬영 데이터를 유/무선으로 수신하는 인터페이스일 수도 있다. 일부 실시예들에서, 상기 영상 획득부(100)는 유선 인터페이스 포트일 수도 있다. 다른 일부 실시예들에서, 상기 영상 획득부(100)는 무선으로 데이터를 수신하는 통신 모듈일 수도 있다. In certain embodiments, the fundus camera transmits captured data of the subject's eye to the device 10 through wired/wireless electrical communication. The image acquisition unit 100 may be an interface that receives captured data wired/wireless from an external fundus camera. In some embodiments, the image acquisition unit 100 may be a wired interface port. In some other embodiments, the image acquisition unit 100 may be a communication module that receives data wirelessly.

다른 특정 실시예들에서, 안저 카메라는 상기 장치(10)에 집적될 수도 있다. 이 경우, 상기 영상 획득부(100)는 안저 카메라로 구현될 수도 있다. In certain other embodiments, a fundus camera may be integrated into the device 10. In this case, the image acquisition unit 100 may be implemented as a fundus camera.

상기 안저 카메라는 안저영상을 획득할 수 있는 다양한 안저 카메라를 포함한다. 예를 들어, 상기 안저 카메라는 산동 안저 카메라, 무산동 안저 카메라, OCT 형(type) 안저 카메라 등을 포함할 수 있다. 상기 안저영상(fundus image)은 망막 안저영상(retinal fundus image)을 포함한다.The fundus camera includes various fundus cameras capable of acquiring fundus images. For example, the fundus camera may include a mydriatic fundus camera, a non-mydriatic fundus camera, an OCT type fundus camera, etc. The fundus image includes a retinal fundus image.

상기 영상 획득부(100)는 복수의 안저영상을 획득할 수도 있다. 상기 장치(10)는 영상 획득부(100)에 의해 획득된 복수의 영상 중 적어도 일부의 안저영상을 서로 부분적으로 정합하여 합성함으로써 단일 안저영상 사이즈 보다 넓은 사이즈를 갖는 단일 합성영상을 생성한다. The image acquisition unit 100 may acquire multiple fundus images. The device 10 generates a single composite image having a size wider than the size of a single fundus image by partially matching and synthesizing at least some of the fundus images among the plurality of images acquired by the image acquisition unit 100.

상기 복수의 안저영상은 영상 프레임 내에 시신경 유두와 중심와를 모두 포함한 제1 그룹의 안저영상, 영상 프레임 내에 시신경 유두만을 포함한 제2 그룹의 안저영상, 영상 프레임 내에 중심와만을 포함한 제3 그룹의 안저영상 및 영상 프레임 내에 시신경 유두와 중심와를 모두 포함하지 않은 제4 그룹의 안저영상을 포함한다. The plurality of fundus images include a first group of fundus images including both the optic nerve head and the fovea in an image frame, a second group of fundus images including only the optic nerve head in an image frame, a third group of fundus images including only the fovea in an image frame, and Includes the fourth group of fundus images that do not include both the optic nerve head and the fovea within the image frame.

또한, 영상 획득부(10)는 안저영상과 관련된 데이터를 획득할 수 있다. 예를 들어, 안저영상과 관련된 데이터는 안저영상의 대상자를 식별할 수 있는 대상자 식별정보(예컨대, 성명, 신원 정보, 식별자 등), 촬영 시점, 및/또는 촬영 기기 관련 정보 등을 포함할 수 있다. 또한, 획득된 안저영상이 좌안의 안저영상인지, 우안의 안저영상인지 여부를 나타내는 레이블 데이터(rabel data)를 더 획득할 수도 있다. 그러면, 상기 장치(10)는 동일한 대상자에 대한 안저영상들을 서로 정합하여 광각 안저영상을 생성하거나, 또는 동일한 측면의 안구의 안저영상끼리(예컨대, 좌안 안저영상끼리 또는 우안 안저영상끼리) 서로 정합하여 광각 안저영상을 생성할 수도 있다. 제1 양안 안저 사진의 쌍과 제2 시점에 촬영된 제2 양안 안저 사진의 쌍을 이용하는 경우, 상기 장치(10)는 좌안의 제1 안저 사진과 좌안의 제2 안저 사진을 정합하거나, 또는 우안의 제1 안저 사진과 우안의 제2 안저 사진을 정합하는 것과 같이, 상기 장치(10)는 대응하는 안구별로 정합 동작을 수행할 수도 있다. Additionally, the image acquisition unit 10 may acquire data related to the fundus image. For example, data related to a fundus image may include subject identification information that can identify the subject of the fundus image (e.g., name, identity information, identifier, etc.), time of shooting, and/or information related to the imaging device. . Additionally, label data indicating whether the acquired fundus image is the fundus image of the left eye or the fundus image of the right eye may be further obtained. Then, the device 10 generates a wide-angle fundus image by matching fundus images of the same subject, or by matching fundus images of the eye on the same side (for example, fundus images of the left eye or fundus images of the right eye). Wide-angle fundus images can also be created. When using a pair of a first binocular fundus photograph and a second binocular fundus photograph taken at a second time point, the device 10 matches the first fundus photograph of the left eye and the second fundus photograph of the left eye, or Like registering the first fundus photo of and the second fundus photo of the right eye, the device 10 may perform a registration operation for each corresponding eye.

영상 획득부(100)는 복수의 안저영상을 다른 구성요소(200, 400 또는 500)로 공급한다. 또한, 영상 획득부(100)는 안저영상을 제공하면서 해당 영상에 관련된 데이터를 함께 제공할 수도 있다. The image acquisition unit 100 supplies a plurality of fundus images to the other components 200, 400, or 500. Additionally, the image acquisition unit 100 may provide a fundus image and data related to the image.

분류부(200)는 복수의 안저영상 각각의 영상 프레임에서 시신경 유두 또는 중심와를 검출하여 상기 복수의 안저영상을 제1 그룹 내지 제4 그룹으로 분류한다. The classification unit 200 detects the optic nerve head or fovea in each image frame of the plurality of fundus images and classifies the plurality of fundus images into first to fourth groups.

일 실시예에서, 분류부(200)는 미리 학습된 시신경 유두/황반 검출 모델을 사용하여 영상 프레임에서 시신경 유두 또는 중심와를 검출할 수도 있다. 또한, 분류부(200)는 검출된 객체의 영상 프레임 상의 2차원 위치를 산출할 산출할 수도 있다. 분류부(200)는 시신경 유두, 중심와의 2차원 위치를 영상 프레임 상의 픽셀 좌표로 산출한다. In one embodiment, the classifier 200 may detect the optic nerve head or fovea in an image frame using a pre-learned optic nerve head/macula detection model. Additionally, the classification unit 200 may calculate the two-dimensional position of the detected object on the image frame. The classification unit 200 calculates the two-dimensional positions of the optic nerve head and fovea as pixel coordinates on the image frame.

도 2는, 본 발명의 일 실시예에 따른, 시신경 유두/황반 검출 모델의 개략적인 네트워크 아키텍쳐를 도시한다. Figure 2 shows a schematic network architecture of the optic disc/macula detection model, according to one embodiment of the present invention.

도 2를 참조하면, 상기 시신경 유두/황반 검출 모델(이하, “검출 모델”)은 공유 컨볼루션 네트워크; 지역 지정 네트워크; 객체 검출 네트워크를 포함한다. Referring to Figure 2, the optic disc/macula detection model (hereinafter, “detection model”) is a shared convolutional network; zoning network; Includes an object detection network.

상기 공유 컨볼루션 네트워크는 다수의 컨볼루션 레이어를 포함하며, 이의 출력은 지역 지정 네트워크 및 객체 검출 네트워크에 의해 공유된다. The shared convolutional network includes multiple convolutional layers, the output of which is shared by the localization network and the object detection network.

공유 컨볼루션 네트워크의 마지막 공유 컨볼루션 레이어가 출력한 컨볼루션 특징맵은 상기 지역 지정 네트워크에 입력된다. The convolutional feature map output by the last shared convolutional layer of the shared convolutional network is input to the region-specific network.

상기 지역 지정 네트워크는 입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측한다. The region designation network generates an intermediate feature map by applying a sliding window method to the input convolutional feature map, and predicts a region of interest where a candidate object is likely to be located based on the intermediate feature map.

상기 슬라이딩 방식은 입력 데이터에서 윈도우를 슬라이딩하면서 입력 데이터의 모든 범위에 대해서 원하는 대상을 탐색하는 방식이다. 이 윈도우는 입력된 컨볼루션 특징맵을 따라 슬라이딩한다. 각 슬라이딩 위치에서의 특징 윈도우는 보다 저 차원의 특징에 매핑된다. 그러면, 상기 지역 지정 네트워크는 입력된 컨볼루션 특징맵 보다 더 낮은 차원의 중간 특징맵(intermediate feature map)을 생성한다. 상기 지역 지정 네트워크는 중간 특징맵에 기초하여 관심지역을 예측한다. The sliding method is a method of searching for a desired object in the entire range of input data by sliding a window in the input data. This window slides along the input convolutional feature map. The feature window at each sliding position is mapped to a lower-dimensional feature. Then, the region-specific network generates an intermediate feature map of lower dimension than the input convolutional feature map. The region specification network predicts the region of interest based on the intermediate feature map.

일 실시예에서, 상기 지역 지정 네트워크는 상기 후보 객체(즉, 시신경 유두 또는 중심와)가 경계 상자의 중심부에 위치하도록 상기 관심지역을 예측할 수도 있다. 그러면, 경계 상자의 위치는 중심부의 위치, 즉 후보객체의 위치에 대응한다. In one embodiment, the localization network may predict the region of interest such that the candidate object (i.e., optic disc or fovea) is located at the center of a bounding box. Then, the location of the bounding box corresponds to the location of the center, that is, the location of the candidate object.

일부 실시예들에서, 상기 지역 지정 네트워크는 미리 크기가 고정된 경계 상자를 사용하여 관심지역을 예측할 수도 있다. In some embodiments, the region-specific network may predict a region of interest using a bounding box of a fixed size in advance.

시신경 유두와 중심와의 크기는 일반적으로 일정한 경향을 가진다. 이 경향성에 기초하여 획득된 값으로 경계 상자의 크기를 미리 설정할 수도 있다. The sizes of the optic disc and fovea generally tend to be consistent. The size of the bounding box may be preset to a value obtained based on this tendency.

도 2에 도시된 바와 같이, 지역 지정 네트워크는 시신경 유두, 중심와를 포함할 가능성이 있는 관심영역을 예측한다. As shown in Figure 2, the region-specific network predicts a region of interest that is likely to include the optic disc and fovea.

상기 객체 검출 네트워크는 풀링 레이어 및 완전연결 레이어를 포함한다. The object detection network includes a pooling layer and a fully connected layer.

공유 컨볼루션 네트워크의 마지막 공유 컨볼루션 레이어가 출력한 컨볼루션 특징맵은 상기 객체 검출 네트워크에도 입력된다. 입력된 컨볼루션 특징맵은 풀링 레이어로 입력된다. The convolutional feature map output by the last shared convolutional layer of the shared convolutional network is also input to the object detection network. The input convolutional feature map is input to the pooling layer.

풀링 레이어는 입력된 데이터를 상기 지역 지정 네트워크에 의한 관심지역 예측 결과에 기초하여 풀링 처리한다. 상기 풀링 레이어는 특징맵이 입력되면 특징 벡터로 출력하도록 구성된다. 그러면, 도 3의 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터가 완전연결 레이어로 입력된다. The pooling layer pools the input data based on the region-of-interest prediction result by the region-specific network. The pooling layer is configured to output a feature vector when a feature map is input. Then, the feature vector for the region of interest from the image frame initially input to the detection model in Figure 3 is input to the fully connected layer.

상기 일부 실시예들에서, 경게 상자의 크기가 고정될 경우, 탐색된 관심지역의 중간 특징맵의 크기도 고정된다. 그러면, 상기 객체 검출 네트워크는 고정된 크기의 특징 벡터를 획득하여 이를 완전연결 레이어로 입력한다. In some of the above embodiments, when the size of the alert box is fixed, the size of the intermediate feature map of the searched region of interest is also fixed. Then, the object detection network obtains a feature vector of a fixed size and inputs it into a fully connected layer.

상기 완전연결 레이어는 관심지역에서 시신경 유두, 중심와가 존재할 확률을 계산하여 시신경 유두, 중심와의 위치를 예측하도록 구성된다. The fully connected layer is configured to predict the positions of the optic nerve head and fovea by calculating the probability that the optic nerve head and fovea exist in the region of interest.

일 실시예에서, 상기 객체 검출 네트워크는 입력된 영상 프레임 상의 경계 상자의 2차원 위치와 크기, 각 객체의 클래스(즉, 시신경 유두 또는 중심와) 및 각 클래스에 대한 신뢰도 점수를 포함한 결과를 출력할 수도 있다. 상기 신뢰도 점수는 확률 값 또는 이에 기반한 다른 변환 값일 수도 있다. In one embodiment, the object detection network may output results including the two-dimensional location and size of the bounding box on the input image frame, the class of each object (i.e., optic disc or fovea), and a confidence score for each class. there is. The confidence score may be a probability value or another converted value based thereon.

상기 검출 모델은 이 결과에 기초하여 시신경 유두, 중심와를 검출한다. 상기 검출 모델은 각각의 클래스별로 해당 신뢰도에 대해 가장 높은 값을 갖는 관심지역을 선택하여 시신경 유두, 중심와를 검출한다. The detection model detects the optic nerve head and fovea based on this result. The detection model selects the region of interest with the highest reliability value for each class and detects the optic nerve head and fovea.

일 실시예에서, 상기 검출 모델은 각각의 클래스별로 해당 신뢰도에 대해 가장 높은 값을 갖는 관심지역을 선택하고, 선택된 관심지역의 클래스에 대한 신뢰도가 미리 설정된 신뢰도 임계치 보다 높은 경우에 선택된 관심지역의 클래스의 객체를 시신경 유두 또는 중심와로 검출할 수도 있다. In one embodiment, the detection model selects the region of interest with the highest value for the corresponding reliability for each class, and if the reliability of the class of the selected region of interest is higher than a preset reliability threshold, the class of the selected region of interest Objects can also be detected as the optic nerve head or fovea.

상기 신뢰도가 확률 값일 경우, 상기 신뢰도 임계치는 예를 들어 0.9일 수도 있으나 이에 제한되진 않는다. If the reliability is a probability value, the reliability threshold may be, for example, 0.9, but is not limited thereto.

상기 검출 모델은 상기 제1 내지 제4 그룹 중 일부 또는 전부를 포함한 훈련 데이터 세트를 사용하여 학습된다. 검출 모델은 훈련 안저영상의 실제 값과 예측 값 간의 차이가 최소화되기 위한 파라미터의 값을 갖도록 학습된다. The detection model is learned using a training data set including some or all of the first to fourth groups. The detection model is learned to have parameter values to minimize the difference between the actual and predicted values of the training fundus image.

상기 분류부(200)는 시신경 유두, 중심와의 검출 여부에 따라 복수의 안저영상을 제1 그룹 내지 제4 그룹으로 자동으로 분류한다. 분류부(200)의 동작에 대해서는 도 3 등을 참조하여 아래에서 보다 상세하게 서술한다. The classification unit 200 automatically classifies a plurality of fundus images into first to fourth groups depending on whether the optic nerve head or fovea is detected. The operation of the classification unit 200 will be described in more detail below with reference to FIG. 3 and the like.

정합부(400)는 안저영상에서 적어도 하나의 특징점(feature point)을 추출할 수도 있다. 상기 특징점은 안저영상에 표현된 기하학적 특징에 관련된 점이다. 상기 기하학적 특징은 엣지, 커브 등을 포함한다. 추출된 특징점은 특징점 기반 정합 동작을 위해 사용될 수도 있다. The registration unit 400 may extract at least one feature point from the fundus image. The feature points are points related to geometric features expressed in the fundus image. The geometric features include edges, curves, etc. Extracted feature points may also be used for feature point-based matching operations.

정합부(400)는 서로 다른 안저영상을 정합하기 위해 복수의 안저영상 각각에 대해서 혈관 영역을 추출한다. 또한, 상기 정합부(400)는 혈관 영역의 추출 결과에 기초하여 혈관 마스크를 생성할 수도 있다. The matching unit 400 extracts blood vessel areas for each of the plurality of fundus images in order to match different fundus images. Additionally, the matching unit 400 may generate a blood vessel mask based on the extraction result of the blood vessel area.

정합부(400)는 안저영상 내 혈관의 적어도 일부를 나타낸 혈관 마스크를 생성할 수도 있다. The registration unit 400 may generate a blood vessel mask representing at least a portion of blood vessels in the fundus image.

상기 혈관 마스크는 혈관 영역을 마스크 형상으로 가진다. 상기 혈관 마스크는 안저영상 내 적어도 일부의 혈관의 외곽선을 포함할 수도 있다. 또한, 상기 혈관 마스크는 혈관 외부와 혈관 영역이 시각적으로 구별되도록 구성될 수도 있다. The blood vessel mask has blood vessel areas in the shape of a mask. The blood vessel mask may include outlines of at least some blood vessels in the fundus image. Additionally, the blood vessel mask may be configured to visually distinguish between the outside of the blood vessel and the blood vessel area.

일 실시예에서, 상기 정합부(400)는 미리 학습된 분할 모델을 사용하여 안저영상에서 혈관 영역을 추출할 수도 있다. 상기 분할 모델은 입력된 안저영상 내 영역 특성에 기초하여 혈관 영역을 추출하도록 구성된다. 상기 분할 모델은 안저영상의 영상 프레임을 이루는 픽셀이 혈관인지 여부를 나타낸 확률 값으로 이루어진 혈관 확률 맵(vessel probability map)을 산출하고, 이에 기초하여 혈관 영역을 결정할 수도 있다. In one embodiment, the matching unit 400 may extract a blood vessel region from a fundus image using a pre-learned segmentation model. The segmentation model is configured to extract a blood vessel region based on region characteristics within the input fundus image. The segmentation model may calculate a vessel probability map consisting of a probability value indicating whether a pixel forming an image frame of a fundus image is a blood vessel, and determine the blood vessel area based on this.

상기 분할 모델은 딥러닝 구조의 기계학습 모델로서, 특징 추출 레이어; 및 분류 레이어를 포함할 수도 있다. The segmentation model is a machine learning model with a deep learning structure, including a feature extraction layer; and a classification layer.

상기 특징 추출 레이어는 입력영상의 부분을 혈관 클래스로 분류하는데 사용되는 특징을 추출하도록 구성된다. 상기 분할 모델이 CNN (Convolutional Neural Network) 기반 모델인 경우, 상기 특징 추출 레이어는 컨볼루션 레이어 및/또는 풀링 레이어를 포함할 수도 있다. The feature extraction layer is configured to extract features used to classify parts of the input image into blood vessel classes. When the segmentation model is a CNN (Convolutional Neural Network)-based model, the feature extraction layer may include a convolutional layer and/or a pooling layer.

분류 레이어는 추출된 특징에 기초하여 영상 내 부분(예컨대, 픽셀 또는 픽셀 집합)이 혈관 클래스로 분류될 확률을 산출하도록 구성된 분류 레이어를 포함한다. 그러면, 안저영상 내 픽셀별로 해당 픽셀이 혈관일 확률을 포함한 혈관 확률맵이 산출된다. The classification layer includes a classification layer configured to calculate the probability that a portion (eg, a pixel or a set of pixels) in the image will be classified into a blood vessel class based on the extracted features. Then, a blood vessel probability map is calculated for each pixel in the fundus image, including the probability that the pixel is a blood vessel.

분할 모델에 의해 산출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 산출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. The blood vessel shape is determined based on the blood vessel probability map calculated by the segmentation model. In certain embodiments, a mask corresponding to the blood vessel shape based on the calculated blood vessel probability map may be created as an ocular blood vessel mask.

일부 실시예들에서, 분류 레이어는 산출된 확률에 기초하여 혈관 클래스와 비-혈관 클래스로 분류하도록 더 구성될 수도 있다. 이 경우, 정합부(400)는 혈관 클래스로 분류된 픽셀로 이루어진 혈관 영역의 영상을 생성할 수도 있다. In some embodiments, the classification layer may be further configured to classify into vascular classes and non-vascular classes based on the calculated probability. In this case, the matching unit 400 may generate an image of a blood vessel area composed of pixels classified into blood vessel classes.

상기 분할 모델은 CNN (Convolutional Neural Network) 기반의 다양한 구조를 가질 수도 있다. 상기 분할 모델은 입력영상에서 특징을 추출하는 레이어; 및 추출된 특징에 기초하여 영상 내 부분(예컨대, 픽셀)이 혈관 클래스로 분류될 확률을 산출하도록 구성된 분류 레이어를 포함한다. 상기 분할 모델은, 예를 들어 SSANet, 또는 Rential SSANet 기반 구조를 포함할 수도 있으나, 이에 제한되진 않는다. The segmentation model may have various structures based on CNN (Convolutional Neural Network). The segmentation model includes a layer that extracts features from the input image; and a classification layer configured to calculate a probability that a portion (eg, pixel) in the image will be classified into a blood vessel class based on the extracted features. The segmentation model may include, for example, but is not limited to SSANet, or Rential SSANet based architecture.

상기 분할 모델은 복수의 훈련 안저영상(training fundus image)를 포함한 훈련 샘플을 이용하여, 영상 내 부분(예컨대, 픽셀)이 혈관 그룹에 속할 확률을 산출하도록 학습된다. 상기 분할 모델은 입력영상 부분(예컨대, 픽셀)의 클래스 분류를 위한 확률 값 산출 또는 클래스 분류를 학습 목적으로 갖는 다양한 학습 과정에 의해 학습된 모델일 수도 있다. The segmentation model is learned to calculate the probability that a portion (eg, pixel) in the image belongs to a blood vessel group using training samples including a plurality of training fundus images. The segmentation model may be a model learned through various learning processes that have class classification as the learning purpose or calculation of a probability value for class classification of an input image portion (eg, pixel).

예를 들어, 안저영상을 입력으로 갖는 분할 모델의 파라미터는 해당 모델의 비용 함수가 최소가되는 방향으로 업데이트되어 학습될 수도 있다. 여기서, 비용 함수는 모델이 산출한 결과 값과 실제 결과 값의 차이를 나타낸다. 이러한 파라미터의 학습은 통상적으로 최적화로 지칭된다. 파라미터의 최적화는, 예를 들어 ADAM(Adaptive Moment Estimation), Momentum, NAG(Nesterov Accelerated Gradient), Adagrad(Adaptive Gradient), RMSProp, 다양한 경사 하강(gradient discent) 방식을 포함할 수도 있다. For example, the parameters of a segmentation model with a fundus image as input may be updated and learned in a direction that minimizes the cost function of the model. Here, the cost function represents the difference between the result value calculated by the model and the actual result value. Learning of these parameters is commonly referred to as optimization. Optimization of parameters may include, for example, Adaptive Moment Estimation (ADAM), Momentum, Nesterov Accelerated Gradient (NAG), Adaptive Gradient (Adagrad), RMSProp, and various gradient descent methods.

이러한 학습 과정을 통해 분할 모델은 안저영상에서 실제 혈관에 대해서는 보다 높은 확률 값을 산출하고 비-혈관에 대해서는 보다 낮은 확률 값을 산출하는 능력이 강화되도록 학습된다. 또한, 확률 값 산출 능력의 강화로 인해, 혈관 영역의 식별 능력도 강화될 수도 있다. Through this learning process, the segmentation model is trained to enhance its ability to calculate higher probability values for actual blood vessels and lower probability values for non-vessels in fundus images. Additionally, by strengthening the probability value calculation ability, the ability to identify blood vessel areas may also be strengthened.

상기 정합부(400)는 추출된 특징 및/또는 혈관(즉, 혈관 마스크)에 기초하여 서로 영상(예컨대, 처음부터 이전 정합 순위까지의 이미 합성된 단일 영상과 다음에 합성될 안저영상)을 정합할 수도 있다. The matching unit 400 matches images (e.g., a single image already synthesized from the beginning to the previous matching rank and a fundus image to be synthesized next) with each other based on the extracted features and/or blood vessels (i.e., blood vessel mask). You may.

상기 합성부(500)는 정합된 서로 다른 안저영상들로부터 단일의 합성영상을 생성할 수도 있다. The synthesis unit 500 may generate a single composite image from different fundus images that are registered.

상기 장치(10)는 정합부(400) 및 합성부(500)에 의해 광각 안저영상을 생성할 수도 있다. 상기 광각 안저영상은 개별 영상을 부분적으로 중첩하여 합성하는 몽타주로 구현된다. 이 몽타주의 생성은 몽타주의 중앙 프레임으로부터 개시되며, 정합 순위에 따라 안저영상을 이미 생성된 몽타주에 합성함으로써 진행된다. 그러면, 몽타주의 크기가 점차 확장하여 복수의 안저영상의 종합적인 뷰를 갖는 최종 광각 안저영상이 생성된다. The device 10 may generate a wide-angle fundus image using the matching unit 400 and the combining unit 500. The wide-angle fundus image is implemented as a montage in which individual images are partially overlapped and synthesized. The creation of this montage starts from the central frame of the montage and proceeds by combining the fundus image with the already created montage according to the registration ranking. Then, the size of the montage is gradually expanded to generate a final wide-angle fundus image with a comprehensive view of multiple fundus images.

정합부(400)의 정합 동작 및 합성부(500)의 광각 안저영상 생성 동작에 대해서는 도 3 등을 참조하여 아래에서 보다 상세하게 서술한다. The matching operation of the matching unit 400 and the wide-angle fundus image generating operation of the combining unit 500 will be described in more detail below with reference to FIG. 3 and the like.

상기 장치(10)가 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 장치(10)는 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be apparent to those skilled in the art that the device 10 may include other components not described herein. For example, the device 10 may include other hardware elements necessary for the operations described herein, including a network interface, an input device for data entry, and an output device for display, printing, or other data presentation. It may be possible.

본 발명의 다른 일 측면에 따른 광각 안저영상을 생성하기 위한 안저영상 정합 방법은 전술한 장치(10)와 같이 하나 이상의 프로세서에 의해 수행될 수도 있다. 이하, 설명의 명료성을 위해, 상기 장치(10)에 의해 수행되는 실시예들에 기초하여 안저영상 정합 방법의 단계들을 보다 상세하게 서술한다. The fundus image registration method for generating a wide-angle fundus image according to another aspect of the present invention may be performed by one or more processors, such as the device 10 described above. Hereinafter, for clarity of explanation, the steps of the fundus image registration method will be described in more detail based on embodiments performed by the device 10.

도 3은, 본 발명의 일 실시예에 따른, 광각 안저영상을 생성하기 위한 안저영상 정합 방법의 흐름도이고, 도 4는, 도 3의 광각 안저영상을 생성하기 위한 안저영항 정합 방법의 개략도이다. 도 4b는 도 4a의 단계(S400)에 대한 개략적인 부분 확대도이다.Figure 3 is a flowchart of a fundus image registration method for generating a wide-angle fundus image, according to an embodiment of the present invention, and Figure 4 is a schematic diagram of a fundus effect registration method for generating a wide-angle fundus image of Figure 3. FIG. 4B is a schematic partial enlarged view of step S400 of FIG. 4A.

상기 광각 안저영상을 생성하기 위한 안저영항 정합 방법(이하, “정합 방법”)은: (예컨대, 영상 획득부(100)에 의해) 복수의 안저영상을 획득하는 단계(S100)를 포함한다. 상기 복수의 안저영상 각각은 시신경 유두 및/또는 황반 주심을 포함하거나, 또는 이들 모두를 포함하지 않을 수도 있다. The fundus domain registration method (hereinafter, “registration method”) for generating the wide-angle fundus image includes: acquiring a plurality of fundus images (e.g., by the image acquisition unit 100) (S100). Each of the plurality of fundus images may include the optic nerve head and/or the macular fovea, or may not include both.

상기 정합 방법은: (예컨대, 분류부(200)에 의해) 복수의 안저영상 각각에 대해서, 시신경 유두 및/또는 중심와를 검출하여 복수의 그룹으로 분류하는 단계(S200)를 포함한다. The matching method includes: detecting the optic nerve head and/or fovea for each of the plurality of fundus images (e.g., by the classification unit 200) and classifying them into a plurality of groups (S200).

일 실시예에서, 미리 학습된 시신경 유두/황반 검출 모델을 사용하여 안저영상의 영상 프레임에서 시신경 유두 및/또는 중심와가 검출될 수도 있다(S200). 단계(S200)의 검출 모델 및 이를 사용한 시신경 유두, 중심와의 검출 동작에 대해서는 도 2를 참조하여 전술하였는 바 자세한 설명은 생략한다. In one embodiment, the optic disc and/or fovea may be detected in an image frame of a fundus image using a pre-learned optic disc/macula detection model (S200). The detection model in step S200 and the detection operation of the optic nerve head and fovea using the same have been described above with reference to FIG. 2, so detailed description will be omitted.

특정 실시예들에서, 상기 복수의 그룹은 제1 내지 제4 그룹을 포함한다. 상기 단계(S200)는 상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계; 상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계; 상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및/또는 상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계를 포함할 수도 있다. 예를 들어, 단계(S200)에서, 단계(S100)의 복수의 영상이 제1 내지 제4 그룹 각각으로 분류될 수도 있다. In certain embodiments, the plurality of groups include first through fourth groups. The step (S200) includes classifying the fundus image in which both the optic nerve head and the fovea are detected into a first group; Classifying the fundus image in which only the optic nerve head is detected into a second group; Classifying the fundus image in which only the fovea is detected into a third group; And/or it may include classifying the fundus image in which neither the optic nerve head nor the fovea are detected into a fourth group. For example, in step S200, the plurality of images in step S100 may be classified into first to fourth groups, respectively.

또한, 상기 정합 방법은: (예컨대, 분류부(200)에 의해) 그룹별로 그룹 내 안저영상 간의 정합 순위를 할당하는 단계(S300)를 포함한다. 상기 단계(S300)는: 상기 제1 그룹 내지 제4 그룹 중 일부 또는 전부의 그룹에 대해서, 상기 일부 또는 전부의 그룹 각각에 포함된 안저영상에 정합 순위를 할당하는 단계; 및/또는 제4 그룹의 안저영상들에 대한 제4 그룹 내 정합 순위를 할당하는 단계를 포함한다.. Additionally, the matching method includes: assigning a matching rank between fundus images within each group for each group (e.g., by the classification unit 200) (S300). The step (S300) includes: assigning matching ranks to fundus images included in some or all of the first to fourth groups; And/or assigning a matching rank within the fourth group to the fundus images of the fourth group.

정합 순위가 할당되면, 정합될 안저영상의 순서는 상기 정합 순위에 의존한다. 예를 들어, 제1 그룹에 속한 안저영상들은 제1 그룹 내 안저영상 간의 정합 순위에 따라서 차례대로 정합된다. 또는 제4 그룹에 속한 안저영상들은 제4 그룹 내 안저영상 간의 정합 순위에 따라서 차례대로 정합될 수도 있다. Once a registration rank is assigned, the order of fundus images to be registered depends on the registration rank. For example, fundus images belonging to the first group are sequentially matched according to the matching rank between the fundus images in the first group. Alternatively, the fundus images belonging to the fourth group may be sequentially matched according to the matching rank between the fundus images within the fourth group.

일 실시예에서, 상기 단계(S300)는: 상기 제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 각 그룹별로 각각의 기준 안저영상(reference fundus image)을 선택하는 단계; 및 상기 기준 안저영상을 사용하여 해당 그룹별 안저영상에 대해 상기 해당 그룹 내 정합 순위를 할당하는 단계를 포함할 수도 있다. 예를 들어, 제1 그룹 내지 제3 그룹 각각에 대한 기준 안저영상이 선택되고, 각 그룹별 기준 안저영상을 사용하여 그룹 내 정합 순위가 할당된다(S300). In one embodiment, the step (S300) includes: selecting a reference fundus image for each group for at least one of the first to third groups; And it may include assigning a matching rank within the group to the fundus image of each group using the reference fundus image. For example, a reference fundus image for each of the first to third groups is selected, and an intra-group matching rank is assigned using the reference fundus image for each group (S300).

중심와와 시신경 유두는 서로 가까운 해부학적 특성을 가진다. 이로 인해, 중심와가 영상 프레임의 중앙 부분에 위치하는 안저영상은 시신경 유두도 포함하는 것이 일반적이므로, 제1 그룹에 속한 것으로 취급 가능하다. The fovea and optic nerve head have anatomical characteristics that are close to each other. For this reason, since the fundus image in which the fovea is located in the center of the image frame generally includes the optic nerve head, it can be treated as belonging to the first group.

일 실시예에서, 제1 그룹의 기준 안저영상은 제1 그룹에 속하는 안저영상들 중에서 각 안저영상별로 검출된 시신경 유두의 위치와 영상 프레임의 중심 위치 사이의 최소 거리를 갖는 안저영상으로 선택될 수도 있다(S300). 광각 안저영상의 초기 영상 프레임을 사용될 수도 있는 제1 그룹의 기준 안저영상을 이와 같이 선택할 경우, 전술한 바와 같이, 광각 안저영상을 생성하는데 안구 내부의 중심을 기준으로 개시하는 것이 유리한 장점과 동시에 시각적 구별의 편의성을 모두 가질 수 있기 때문이다. In one embodiment, the reference fundus image of the first group may be selected as a fundus image having the minimum distance between the position of the optic nerve head detected for each fundus image and the center position of the image frame among the fundus images belonging to the first group. There is (S300). When the first group of reference fundus images, which can be used as the initial image frame of the wide-angle fundus image, is selected in this way, as described above, it is advantageous to start from the center of the eye to generate the wide-angle fundus image, and at the same time, it is visually This is because you can have all the convenience of distinction.

또한, 상기 제1 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다. 전술한 바와 같이, 시신경 유두가 보다 시각적으로 쉽게 구별되기 때문이다. 다른 안저영상의 시신경 유두가 기준 안저영상의 시신경 유두와의 거리가 가까울수록 보다 높은 정합 순위가 할당된다(S300). Additionally, the registration rank within the first group for the fundus images of the first group may be assigned based on the distance between the optic nerve head of the reference fundus image of the first group and other fundus images within the first group. As mentioned above, this is because the optic nerve head is more easily visually distinguished. The closer the distance between the optic nerve head of another fundus image and the optic nerve head of the reference fundus image, the higher the registration rank is assigned (S300).

상기 거리는, 예를 들어 ||po i-po ref||2의 수학식에 의해 산출될 수도 있다. 여기서, i는 그룹 내 인덱스이고, po i는 상기 제1 그룹의 i번째 안저영상의 시신경 유두의 영상 프레임 상의 픽셀 좌표를 나타내고, po ref 는 기준 안저영상의 영상 프레임 상의 시신경 유두의 픽셀 좌표를 나타낸다. The distance is, for example, ||p o i -p o ref || It can also be calculated using the equation 2 . Here, i is the index within the group, p o i represents the pixel coordinate on the image frame of the optic nerve head of the ith fundus image of the first group, and p o ref is the pixel coordinate of the optic nerve head on the image frame of the reference fundus image. represents.

상기 제1 그룹 및 제2 그룹의 안저영상이 시신경 유두를 포함하므로, 상기 제1 그룹의 기준 안저영상을 상기 제2 그룹의 기준 안저영상으로 사용할 수도 있다. 즉, 제1 그룹의 기준 안저영상이 선택되면, 상기 제2 그룹의 기준 안저영상도 자동으로 선택된다. Since the fundus images of the first and second groups include the optic nerve head, the reference fundus images of the first group may be used as the reference fundus images of the second group. That is, when the reference fundus image of the first group is selected, the reference fundus image of the second group is also automatically selected.

상기 제2 그룹의 안저영상들에 대한 제2 그룹 내 정합 순위는 제2 그룹의 기준 안저영상의 시신경 유두와 제2 그룹 내 다른 안저영상 간의 거리에 기초하여 할당된다(S300). The registration rank within the second group for the fundus images of the second group is assigned based on the distance between the optic nerve head of the reference fundus image of the second group and other fundus images within the second group (S300).

상기 제3 그룹의 기준 안저영상도 전술한 제1 그룹의 기준 안저영상을 선택하는 과정과 유사하지만, 시신경 유두를 사용하는 대신 중심와의 위치를 기초로 선택된다. The reference fundus image of the third group is similar to the process of selecting the reference fundus image of the first group described above, but is selected based on the location of the fovea instead of using the optic nerve head.

일 실시예에서, 상기 제3 그룹의 기준 안저영상은 제3 그룹에 속하는 안저영상들 중에서 각 안저영상별로 검출된 중심와의 위치와 영상 프레임의 중심 위치 사이의 최소 거리를 갖는 안저영상으로 선택될 수도 있다(S300). In one embodiment, the reference fundus image of the third group may be selected as a fundus image having the minimum distance between the position of the fovea detected for each fundus image and the center position of the image frame among the fundus images belonging to the third group. There is (S300).

또한, 상기 제3 그룹의 안저영상들에 대한 제1 그룹 내 정합 순위는 제1 그룹의 기준 안저영상의 시신경 유두와 제1 그룹 내 다른 안저영상 간의 거리에 기초하여 할당될 수도 있다. 전술한 바와 같이, 시신경 유두가 보다 시각적으로 쉽게 구별되기 때문이다. 다른 안저영상의 중심와가 기준 안저영상의 중심와와의 거리가 가까울수록 보다 높은 정합 순위가 할당된다(S300). Additionally, the registration rank within the first group for the fundus images of the third group may be assigned based on the distance between the optic nerve head of the reference fundus image of the first group and other fundus images within the first group. As mentioned above, this is because the optic nerve head is more easily visually distinguished. The closer the distance between the fovea of another fundus image and the fovea of the reference fundus image, the higher the registration rank is assigned (S300).

한편, 상기 제4 그룹 내 안저영상들 간의 정합 순위는 특징점의 매칭 정도에 기초하여 할당된다. Meanwhile, the matching rank between fundus images in the fourth group is assigned based on the degree of matching of feature points.

일 실시예에서, 상기 제4 그룹 내 안저영상들 간의 정합 순위는 제4 그룹에 속하는 안저영상들 각각의 특징점이 초기 안저영상(즉, 상기 제1 그룹의 기준 안저영상) 또는 이전 정합 순위까지 이미 합성된 영상의 특징점에 매칭하는 정도에 기초하여 할당될 수도 있다. 매칭 정도가 높을수록 보다 높은 정합 순위가 할당된다. In one embodiment, the registration ranking between the fundus images in the fourth group is determined so that the feature points of each of the fundus images belonging to the fourth group have already reached the initial fundus image (i.e., the reference fundus image of the first group) or the previous registration ranking. It may be assigned based on the degree of matching with the feature points of the synthesized image. The higher the degree of matching, the higher the matching rank is assigned.

대안적인 실시예들에서, 상기 정합 방법은: (예컨대, 분류부(200)에 의해) 그룹 간의 정합 순위를 설정하는 단계(미도시)를 더 포함할 수도 있다. In alternative embodiments, the matching method may further include: setting a matching rank between groups (e.g., by the classification unit 200) (not shown).

안구 내부의 영역을 표현한 광각 안저영상을 생성하는 것을 가정할 경우, 안구 내부의 중심을 기준으로 정합하여 합성하는 것이 유리하다. 중심와는 망막의 중심에 가까운 해부학적 특성을 가진다. 따라서, 중심와를 포함할수록 보다 높은 정합의 우선 순위를 가져야 한다. 그러나, 중심와는 망막 내에서 약간 더 어두운 점의 형태와 같이, 시각적으로 구별되기 모호한 특성을 가진다. 따라서, 영상 정렬에서 중심와만을 기준(reference)으로 사용하기에 쉽지 않다. 반면, 시신경 유두는 중심와 대비 상대적으로 시각적으로 구별되기 쉬운 특성을 가진다. Assuming that a wide-angle fundus image representing the area inside the eye is being created, it is advantageous to register and synthesize based on the center of the eye. The fovea has anatomical characteristics that are close to the center of the retina. Therefore, the more the fovea is included, the higher the registration priority should be. However, the fovea has characteristics that make it visually indistinguishable, such as the appearance of a slightly darker spot within the retina. Therefore, it is not easy to use only the fovea as a reference in image alignment. On the other hand, the optic nerve head has characteristics that make it relatively easy to visually distinguish compared to the fovea.

이로 인해, 상기 그룹 간의 정합 순위는 중심와와 더불어 시신경 유두를 모두 포함한 상기 제1 그룹에 가장 높은 그룹 간의 정합 순위가 할당된다. 상기 제4 그룹에 가장 낮은 그룹 간의 정합 순위가 할당된다. 제1 그룹 및 제3 그룹은 이들 사이에 할당된다. 예를 들어, 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 상기 제1 그룹, 상기 제3 그룹, 상기 제2 그룹 및 제4 그룹의 순서로 설정될 수도 있다. 그러면, 광각 안저영상을 생성하기 위해, 우선 초기 안저영상을 상기 제1 그룹에서 선택하고, 제1 그룹 내 안저영상의 정합 순위에 따라 상기 제1 그룹 내 안저영상들을 상기 초기 안저영상에 순서대로 정합하고, 합성 영상을 생성한다. For this reason, the highest matching rank between the groups is assigned to the first group, which includes both the optic nerve head as well as the fovea. The lowest inter-group matching rank is assigned to the fourth group. A first group and a third group are allocated between them. For example, it may be set in the order of the first group, the second group, the third group, and the fourth group, or the order of the first group, the third group, the second group, and the fourth group. Then, in order to generate a wide-angle fundus image, an initial fundus image is first selected from the first group, and the fundus images in the first group are sequentially registered to the initial fundus image according to the registration order of the fundus images in the first group. and generate a composite image.

상기 그룹 간의 정합 순위를 설정하는 단계는 광각 안저영상을 생성하기 위한 복수의 안저영상을 획득하는 단계(S100) 이전 또는 그 이후에 수행될 수도 있다. 예를 들어, 그룹 간의 정합 순위를 설정하는 단계는 아래에서 서술할 정합된 안저영상을 합성하는 단계(S500) 이전에 설정될 수도 있다. The step of setting the matching rank between the groups may be performed before or after the step of acquiring a plurality of fundus images for generating a wide-angle fundus image (S100). For example, the step of setting the matching ranking between groups may be set before the step of synthesizing the matched fundus image (S500), which will be described below.

그러면, 제1 내지 제4 그룹의 모든 복수의 안저영상에 대한 전체적인 정합 순위가 할당될 수도 있다. 예를 들어, 제1 그룹 내 안저영상들에 대해 정합 순위가 할당되면, 제2 그룹 내 가장 높은 정합 순위를 갖는 첫번?? 안저영상은 제1 그룹 내 가장 낮은 정합 순위를 갖는 마지막 안저영상의 다음 정합 순위를 가지는 것으로 정렬될 수도 있다. Then, an overall registration rank may be assigned to all the plurality of fundus images of the first to fourth groups. For example, if a registration rank is assigned to the fundus images in the first group, the first one with the highest registration rank in the second group?? Fundus images may be sorted by having the next registration rank after the last fundus image with the lowest registration rank in the first group.

상기 정합 방법은: (예컨대, 정합부(400)에 의해) 정합 순위에 기초하여 시작 안저영상과 다음 정합 순위의 안저영상 정합하는 단계(S400);를 포함한다. The registration method includes: registering the starting fundus image and the fundus image of the next registration order based on the registration order (eg, by the registration unit 400) (S400).

특정 실시예들에서, 상기 제1 내지 제4 그룹의 모든 복수의 안저영상에 대한 전체적인 정합 순위가 할당될 경우, 이미 합성된 영상에 추가되는 안저영상은 단일 안저영상일 수도 있다. In certain embodiments, when an overall registration rank is assigned to all the plurality of fundus images of the first to fourth groups, the fundus image added to the already synthesized image may be a single fundus image.

초기 몽타주로 사용 가능한, 가장 높은 정합 순위를 갖는 제1 그룹의 기준 안저영상과 제1 그룹 내 그 다음 정합 순위의 안저영상을 참조하여 단계(S400)를 보다 상세하게 서술한다. 몽타주의 소스영상, 즉 상기 제1 그룹의 기준 안저영상은 제1 안저영상으로, 그 다음 정합 순위의 안저영상은 제2 안저영상으로 아래에서 지칭된다. The step (S400) will be described in more detail with reference to the reference fundus image of the first group with the highest registration rank and the fundus image of the next registration rank within the first group, which can be used as an initial montage. The source image of the montage, that is, the reference fundus image of the first group, is referred to below as the first fundus image, and the fundus image in the next registration order is referred to below as the second fundus image.

도 3 및 도 4b를 참조하면, 상기 단계(S400)는: 상기 제1 안저영상과 제2 안저영상의 혈관 마스크를 생성하는 단계(S410)를 포함한다. 상기 혈관 마스크는 미리 학습된 분할 모델을 사용하여 안저영상으로부터 혈관 영역을 추출하여 생성된다. 그러면, 상기 제1 영역 내 혈관의 적어도 일부를 나타낸 제1 혈관 마스크, 그리고 상기 2 영역 내 혈관의 적어도 일부를 나타낸 제2 혈관 마스크가 생성된다(S410). Referring to FIGS. 3 and 4B, the step (S400) includes: generating a blood vessel mask of the first fundus image and the second fundus image (S410). The blood vessel mask is created by extracting blood vessel areas from the fundus image using a pre-learned segmentation model. Then, a first blood vessel mask showing at least part of the blood vessels in the first region and a second blood vessel mask showing at least a part of the blood vessels in the second area are generated (S410).

단계(S410)에서 추출된 혈관 확률맵에 기초하여 혈관 형상이 결정된다. 특정 실시예들에서, 추출된 혈관 확률맵에 기초한 혈관 형상에 대응하는 마스크가 안구 혈관 마스크로 생성될 수도 있다. The blood vessel shape is determined based on the blood vessel probability map extracted in step S410. In certain embodiments, a mask corresponding to blood vessel shapes based on the extracted blood vessel probability map may be created as an ocular blood vessel mask.

단계(S410)의 분할 모델 및 혈관 영역을 추출하여 혈관 마스크를 생성하는 동작에 대해서는 정합부(400)의 동작을 참조하여 전술하였는 바 자세한 설명은 생략한다. The operation of generating a blood vessel mask by extracting the segmentation model and blood vessel region in step S410 has been described above with reference to the operation of the matching unit 400, and detailed description will be omitted.

대안적인 실시예들에서, 상기 단계(S410)는 추출된 혈관 확률맵에 기초한 혈관 형상을 후처리하는 단계를 포함할 수도 있다. 그러면, 혈관 모델에 의해 산출된 혈관 확률맵에만 기초한 혈관 마스크 보다 더 정확하고 개선된 혈관 마스크를 생성할 수도 있다. 후처리 과정은 이진화 및/또는 혈관 형상의 경계를 재정의하는 과정을 포함한다. 특정 실시예들에서, 상기 후처리하는 단계는 특징점 기반 정합 이후 수행될 수도 있다. In alternative embodiments, step S410 may include post-processing the blood vessel shape based on the extracted blood vessel probability map. Then, a more accurate and improved blood vessel mask can be generated than a blood vessel mask based only on the blood vessel probability map calculated by the blood vessel model. Post-processing includes binarization and/or redefining the boundaries of the vessel shape. In certain embodiments, the post-processing step may be performed after feature point-based registration.

도 5a 내지 5d는, 본 발명의 일 실시예에 따른, 추출된 혈관 마스크를 후처리한 결과를 도시한 도면이다.Figures 5A to 5D are diagrams showing the results of post-processing the extracted blood vessel mask according to an embodiment of the present invention.

상기 일 실시예에서, 상기 후처리 단계는: 입력영상에 이중 역치 기법(hysteresis thresholding)을 적용해 이진화하여 이진화 혈관 마스크(binarized fundus mask)를 생성하는 단계를 포함할 수도 있다. In one embodiment, the post-processing step may include: applying hysteresis thresholding to the input image to binarize it to generate a binarized fundus mask.

도 5a에 도시된 바와 같이, 단계(S410)에서 산출된 혈관 확률맵에 기초한 혈관 영역의 영상이 생성될 수도 있다. 도 5a의 영상에 이중 영치 기법이 적용된다. As shown in FIG. 5A, an image of the blood vessel area may be generated based on the blood vessel probability map calculated in step S410. The double zero-field technique is applied to the image in Figure 5a.

이중 역치 기법은 상한 임계 값과 하한 임계 값을 이용하여 타겟 데이터를 결정하는 기법이다. 가는 혈관(filamentray vessels)이 영상에서 끊겨보이는 오차를 방지하기 위해, 입력영상의 혈관 영역을 미리 설정된 제1 임계 값(τl)과 제2 임계 값(τh)을 기준으로 이진화한다. 제2 임계 값(τh)은 제1 임계 값(τl) 보다 높은 임계 값일 수도 있다. 더 낮은 임계 값(τl) 보다 높은 확률을 갖는 픽셀이 성장하는 지역에 대한 시드로서 제2 임계 값(τh)을 넘는 픽셀이 사용된다. 제1 임계 값과 제2 임계 값은, 예컨대 τ1 = 0. 1, τh = 0.75 등과 같은, 경험적인 값일 수도 있다. The double threshold technique is a technique that determines target data using an upper and lower threshold. To prevent errors in which thin blood vessels (filamentray vessels) appear disconnected in the image, the blood vessel area of the input image is binarized based on a preset first threshold (τl) and a second threshold (τh). The second threshold value (τh) may be a higher threshold value than the first threshold value (τl). Pixels above a second threshold (τ h ) are used as seeds for regions in which pixels with a higher probability than the lower threshold (τ l ) grow. The first and second thresholds may be empirical values, such as τ 1 = 0.1, τ h = 0.75, etc.

이러한 이중 임계 기법에 의해, 혈관 형상의 경계가 제1 임계 값 보다 높은 확률을 갖는 픽셀의 영역으로 성장된다. 성장 결과에 기초하여 이진화 혈관 마스크가 생성될 수도 있다. By this double threshold technique, the boundary of the blood vessel shape is grown into an area of pixels with a probability higher than the first threshold. A binarized blood vessel mask may be generated based on the growth results.

또한, 상기 후처리 단계는: 안저영상의 이미지 그라디언트에 대한 혈관 경계를 정렬하기 위해 혈관 마스크를 미세 조정하는 단계를 포함할 수도 있다. Additionally, the post-processing step may include: fine-tuning the blood vessel mask to align blood vessel boundaries with the image gradient of the fundus image.

이를 위해, 상기 후처리 단계는: 이진화 영상에서 혈관과 외부 경계 사이의 밸리(valley)를 검출하는 단계; 및 상기 밸리 내부를 채우는 단계를 포함할 수도 있다. 이진화 영상을 반전(inverted)하면, 혈관과 외부 경계 사이의 영역이 보다 선명하게 구분된다. 예를 들어, 도 5b에는 혈관 영역으로 동일하게 표현되었던 다수의 영역들(예컨대 혈관 내부, 외부 경계, 및/또는 혈관 두께 등을 나타낸 혈관과 외부 경계 사이의 영역)이 도 5c에 도시된 바와 같이 보다 선명하게 구분된다. 이러한 반전된 이진화 영상에서 혈관과 외부 경계 사이의 밸리 영역을 검출하고, 밸리 영역의 내부를 채우는 영상 처리가 수행된다. 그러면 도 5d에 도시된 바와 같이, 혈관 확률맵에 기초한 초기 혈관 마스크를 개선한 마스크를 최종적인 혈관 마스크로 생성할 수도 있다. 단계(S410)에서 밸리 내부를 채우는 과정은, 예를 들어, 이미지 침식(erosion) 처리를 통해서 수행될 수도 있다. To this end, the post-processing steps include: detecting a valley between a blood vessel and its external border in the binarized image; And it may also include filling the inside of the valley. When the binarized image is inverted, the area between the blood vessel and the external border is more clearly distinguished. For example, in Figure 5b, a number of regions (e.g., the area between the blood vessel and the outer border showing the blood vessel interior, outer border, and/or blood vessel thickness, etc.) that were identically expressed as blood vessel areas are shown in Figure 5c. are more clearly distinguished. In this inverted binarized image, the valley area between the blood vessel and the external border is detected, and image processing is performed to fill the inside of the valley area. Then, as shown in FIG. 5D, a mask that improves the initial blood vessel mask based on the blood vessel probability map may be generated as the final blood vessel mask. The process of filling the inside of the valley in step S410 may be performed, for example, through image erosion processing.

이러한 후처리 과정들이 제1 안저영상 및/또는 제2 안저영상에서 분할 모델에 의해 산출된 혈관 형상에 적용되면, 보다 정교하게 후처리된 제1 안저영상 및/또는 제2 안저영상의 혈관 마스크가 생성된다(S410). When these post-processing processes are applied to the blood vessel shape calculated by the segmentation model in the first fundus image and/or the second fundus image, the blood vessel mask of the more elaborately post-processed first fundus image and/or the second fundus image is created. is created (S410).

또한, 상기 단계(S400)는: 제1 안저영상과 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계(S430); 및 생성한 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 정합하는 단계(S450)를 포함한다. 단계(S450)의 정합 동작은 단계(S430)의 특징점 정합 이후 수행되므로, 재-정합 동작으로 취급된다. In addition, the step (S400) includes: matching the first fundus image and the second fundus image based on the feature points of the first fundus image and the second fundus image (S430); and a step of matching the first fundus image and the second fundus image based on the generated blood vessel mask (S450). Since the matching operation of step S450 is performed after the feature point matching of step S430, it is treated as a re-matching operation.

단계(S430)는 안저영상 내 특징점을 추출하는 단계; 및 추출된 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계를 포함한다. Step S430 includes extracting feature points in the fundus image; And a step of matching the first fundus image and the second fundus image based on the extracted feature points.

상기 특징점은 영상을 매칭하는데 있어서 주위 배경과 구분되면서 식별이 용이한 지점을 포함한다. 전술한 바와 같이, 기하학적 특징점이 특징점으로 사용될 수도 있다. 일 실시예에서, 특징점은 혈관의 기하학적 형상과 관련된 특징점을 포함할 수도 있다. 예를 들어, 혈관 형상 또는 에지에 포함된 특징점을 포함할 수도 있다. The feature point includes a point that is distinguishable from the surrounding background and easy to identify when matching the image. As described above, geometric feature points may be used as feature points. In one embodiment, the feature points may include feature points related to the geometric shape of the blood vessel. For example, it may include feature points included in the shape of a blood vessel or an edge.

단계(S430)에서 특징 서술자(descriptor) 기반 다양한 특징 추출 알고리즘을 통해 입력영상(예컨대, 제1 안저영상)에서 특징점을 추출할 수도 있다. 상기 특징 추출 알고리즘은, 예를 들어 DoG(Difference of Gaussian)를 기반으로 영상 축 및/또는 스케일 축으로 코너성이 극대인 점을 추출하는 SIFT(Scale Invariaant Feature Trnasform)을 포함할 수도 있으나, 이에 제한되진 않는다. 단계(S430)에서 다수의 특징점을 포함한 특징점 세트가 추출될 수도 있다. In step S430, feature points may be extracted from the input image (eg, the first fundus image) through various feature extraction algorithms based on feature descriptors. The feature extraction algorithm may include, for example, SIFT (Scale Invariant Feature Trnasform), which extracts points with maximum cornerability on the image axis and/or scale axis based on DoG (Difference of Gaussian), but is limited to this. It won't work. In step S430, a feature point set including a plurality of feature points may be extracted.

상기 단계(S430)에서 특징점 기반 매칭은 픽셀 도메인에서 수행될 수도 있다. In step S430, feature point-based matching may be performed in the pixel domain.

상기 단계(S430)에서 상기 제1 안저영상으로부터 추출된 제1 특징점 세트와 상기 제1 안저영상으로부터 추출된 제2 특징점 세트를 각각 강체 정합(rigid registration)함으로써, 제1 안저영상과 제2 안저영상을 정합할 수도 있다. In the step (S430), the first set of feature points extracted from the first fundus image and the set of second feature points extracted from the first fundus image are each rigidly registered, thereby creating the first fundus image and the second fundus image. can also be matched.

일 실시예에서, 상기 단계(S430)는, 원근 변환 행렬을 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합하는 단계를 포함할 수도 있다. 일부 실시예에서, 상기 단계(S300)는 RANSAC 알고리즘을 더 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합할 수도 있다. 예를 들어, 원근 변환 행렬을 이용하여 제1 특징점 세트와 제2 특징점 세트를 정합하는 과정에서, RANSAC 알고리즘을 통해 각 세트의 특징점 간의 매칭도를 최대화하는 값을 산출함으로써, 특징점 기반 매칭을 수행할 수도 있다. In one embodiment, step S430 may include matching the first set of feature points and the second set of feature points using a perspective transformation matrix. In some embodiments, step S300 may further use the RANSAC algorithm to match the first set of feature points and the second set of feature points. For example, in the process of matching the first set of feature points and the second set of feature points using a perspective transformation matrix, feature point-based matching can be performed by calculating a value that maximizes the matching degree between feature points of each set through the RANSAC algorithm. It may be possible.

도 6 a 및 도 6b는, 본 발명의 일 실시예예 따른, 특징점 기반 정합 결과를 도시한 도면이다. Figures 6a and 6b are diagrams showing feature point-based matching results according to an embodiment of the present invention.

도 6a에 도시된 바와 같이, 혈관의 특징점에 기초하여 제1 안저영상과 제2 안저영상이 정합된다(S430). As shown in FIG. 6A, the first fundus image and the second fundus image are matched based on the feature points of the blood vessels (S430).

도 6b를 참조하면, 혈관의 특징점을 매칭하여 제1 안저영상과 제2 안저영상이 정합된, 도 6a의 정합 결과를 시각화한 정합영상을 획득할 수도 있다. Referring to FIG. 6B, a registered image that visualizes the registration result of FIG. 6A, in which the first and second fundus images are registered by matching feature points of blood vessels, may be obtained.

단계(S430)의 정합 이후 단계(S450)의 정합이 추가로 수행된다. After matching in step S430, matching in step S450 is additionally performed.

일 실시예에서, 상기 정합 방법은: 특징점 기반 정합 이후, 특징점 기반 정합 결과의 유효성을 검증하는 단계(S440)를 더 포함할 수도 있다. 단계(S450)의 추가 정합은 단계(S440)에서 유효성이 검증된 경우에 수행된다. In one embodiment, the matching method may further include: after feature point-based matching, verifying the validity of the feature point-based matching result (S440). Additional matching in step S450 is performed if validity is verified in step S440.

일 실시예에서, 유효성 검증을 위해, 다음 정합 순위를 갖는 안저영상(예컨대, 제2 안저영상)은 호모그래피 변환 처리될 수도 있다(S440). 상기 제2 안저영상이 호모그래피 변환 처리될 경우, 상기 제2 안저영상의 특징점이 다른 안저영상(즉, 제1 안저영상)에 투영된다. 상기 제2 안저영상에 대해서, 호모그래피 변환 전후의 변화가 유효성 조건을 충족하지 못하면, 상기 제2 안저영상은 정합되지 않고 광각 안저영상을 생성하는데 사용되지 않는다. In one embodiment, for validation purposes, a fundus image (eg, a second fundus image) with the next matching rank may be subjected to homography conversion (S440). When the second fundus image is subjected to homography conversion, feature points of the second fundus image are projected onto another fundus image (ie, the first fundus image). For the second fundus image, if the change before and after homography transformation does not meet the validity condition, the second fundus image is not registered and is not used to generate a wide-angle fundus image.

일 실시예에서, 상기 유효성 조건은 호모그래피 변환 전후의 영상 프레임의 면적 차이가 미리 설정된 임계치 미만일 경우에 충족되는 것으로 설정될 수도 있다. 상기 임계치는 호모그래피 변환 전/후의 영상 프레임의 픽셀 면적 차이로서 면적 변화량 자체 또는 면적 변화율일 수도 있다. 면적 변화율이 임계치로 사용될 경우, 상기 임계치는 대략 15% 내지 5%의 값으로 설정될 수도 있다. 예를 들어, 상기 임계치는 10%일 수도 있다. 그러면, 제2 안저영상의 호모그래피 변환 전/후의 차이가 10% 보다 클 경우 상기 제2 안저영상은 추가 정합 및 합성 대상에서 제외된다. In one embodiment, the validity condition may be set to be satisfied when the area difference between the image frames before and after homography conversion is less than a preset threshold. The threshold is the difference in pixel area of the image frame before and after homography conversion, and may be the area change amount itself or the area change rate. When the area change rate is used as the threshold, the threshold may be set to a value of approximately 15% to 5%. For example, the threshold may be 10%. Then, if the difference between before and after homography conversion of the second fundus image is greater than 10%, the second fundus image is excluded from further registration and synthesis.

그 결과, 3차원 구형 물체의 뷰 변환을 표현하기 위해 2차원 호모그래피를 적용하는 것의 부적절함 및 작은 중첩 또는 불충분한 텍스쳐로 인해 제한된 수의 특징점 매칭의 실패 등을 포함한, 정합의 부정확성을 야기하는 문제가 적어도 부분적으로 해소된다. As a result, it causes registration inaccuracies, including the inadequacy of applying two-dimensional homography to represent the view transformation of a three-dimensional spherical object and the failure to match a limited number of feature points due to small overlap or insufficient texture. The problem is at least partially solved.

다시 도 3및 도 4를 참조하면, 단계(S450)에서 혈관 마스크(또는 후처리된 혈관 마스크)에 기초하여 제1 안저영상과 제2 안저영상이 정합된다. Referring again to FIGS. 3 and 4, in step S450, the first fundus image and the second fundus image are matched based on the blood vessel mask (or post-processed blood vessel mask).

일 실시예에서, 단계(S430)의 특징점 기반 정합 이후 재-정합을 위해, 상기 제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합할 수도 있다(S450). In one embodiment, for re-registration after feature-based registration in step S430, the first and second fundus images are re-registered by deformable registration of the first and second blood vessel masks. Matching is also possible (S450).

변형 정합(deformable registration)은 정합 대상을 자유롭게 변형 가능한 비선형 형태의 정합이다. 예를 들어, 직선의 정합 대상을 곡선, 사각형 또는 원형 등의 형태로 변형 가능할 수도 있다. Deformable registration is a non-linear form of registration in which the registration target can be freely modified. For example, a straight line matching object may be transformed into a curved, square, or circular shape.

단계(S450)에서 사용되는 변형 정합 알고리즘은, 예를 들어, B-Spline 알고리즘을 포함할 수도 있다. B-Spline 알고리즘은 두 영상 간의 픽셀 유사도가 높아지는 방향으로 반복적으로 최적화하는 정합 알고리즘이다. 가장 높은 유사도를 갖게 하는 파라미터를 결정하여 최적화된 정합 결과를 산출한다. The deformation matching algorithm used in step S450 may include, for example, the B-Spline algorithm. The B-Spline algorithm is a matching algorithm that iteratively optimizes in the direction of increasing pixel similarity between two images. The parameter that gives the highest similarity is determined to produce an optimized matching result.

단계(S410)에서 전술한 바와 같이, 제1 혈관 마스크 및 제2 혈관 마스크가 분할 모델에 의해 생성된 경우, 변형 정합의 입력은 보다 정교하게 추출된 혈관 영역을 기반으로 수행된다. As described above in step S410, when the first blood vessel mask and the second blood vessel mask are created by a segmentation model, the input of deformation matching is performed based on the more precisely extracted blood vessel region.

예를 들어, 제1 혈관 마스크를 소스형상으로 제2 혈관 마스크를 타겟형상으로 사용하여 B-스플라인(B-Spline) 알고리즘을 적용하면, 제1 혈관 마스크의 하나 이상의 제어점을 추출하고 제1 혈관 마스크의 형상을 제2 혈관 마스크와의 픽셀 유사도롤 극대화하는 최적화 곡선을 갖도록 변형할 수도 있다. 그러면, 제1 혈관 마스크와 제2 혈관 마스크가 특징점 기반 정합 결과에 존재하는 오차들이 미세 조정되도록 재-정합될 수도 있다. For example, if the B-Spline algorithm is applied using the first blood vessel mask as the source shape and the second blood vessel mask as the target shape, one or more control points of the first blood vessel mask are extracted and the first blood vessel mask is used as the target shape. The shape of may be modified to have an optimization curve that maximizes pixel similarity with the second blood vessel mask. Then, the first blood vessel mask and the second blood vessel mask may be re-registered so that errors existing in the feature point-based registration result are finely adjusted.

도 7a 및 도 7 b는, 본 발명의 일 실시예에 따른, 혈관 마스크 기반 정합 결과를 도시한 도면이다. FIGS. 7A and 7B are diagrams showing blood vessel mask-based registration results according to an embodiment of the present invention.

도 7a를 참조하면, 단계(S450)에서 혈관 마스크를 변형 정합하여 특징점 기반의 정합 결과에서 존재하는 오류들을 미세 조정함으로써 보다 정교한 정합 결과를 획득할 수도 있다. Referring to FIG. 7A, in step S450, a more precise registration result may be obtained by modifying and registering the blood vessel mask to fine-tune errors existing in the feature point-based registration result.

강체 정합만 수행될 경우 혈관의 일부는 정확하게 매칭되지 않을 수도 있다(S430). 예를 들어, 도 6a에 도시된 바와 같이, 특징점 기반 정합만을 수행한 경우에는 시신경 유두 부분에서 멀어질수록 정합이 상대적으로 정교하게 되지 않았을 수도 있다. 그러나, 도 7a에 도시된 바와 같이 변형 정합이 더 적용된 경우 제1 안저영상과 제2 안저영상이 비-강체 정합되어, 정교한 정합 결과를 획득할 수도 있다(S450).If only rigid body registration is performed, some parts of the blood vessel may not be matched accurately (S430). For example, as shown in FIG. 6A, if only feature-based registration was performed, the registration may not have become relatively more precise as the distance from the optic nerve head increases. However, as shown in FIG. 7A, when deformation registration is further applied, the first fundus image and the second fundus image are non-rigidly registered, and an elaborate registration result may be obtained (S450).

그러면, 도 4에 도시된 바와 같이, 제1 안저영상과 제2 안저영상의 일부가 서로 중첩된 정합영상이 획득될 수도 있다. 또한 도 7 b에 도시된 바와 같이 미세 조정되도록 제1 안저영상과 제2 안저영상이 정합된 결과를 시각화한 정합영상을 획득할 수도 있다. Then, as shown in FIG. 4, a registered image in which parts of the first fundus image and the second fundus image overlap each other may be obtained. Additionally, as shown in FIG. 7B, a registered image that visualizes the result of registering the first and second fundus images so that they can be finely adjusted can be obtained.

이와 같은 특징점 기반 정합 및 변형 정합으로 이루어진 이단 정합을 통해 보다 정확한 정합영상을 얻을 수도 있다.A more accurate registered image can be obtained through two-stage registration consisting of feature point-based registration and transformation registration.

또한, 상기 정합 방법은 (예컨대, 합성부(500)에 의해) 광각 안저영상을 생성하기 위해, 정합된 안저영상들을 합성하는 단계(S500)를 포함한다. 단계(S450)의 정합 결과에 기초하여 단계(S400)에서 정합에 사용된 상기 제1 안저영상 및 제2 안저영상이 부분적으로 중첩된 단일 영상으로 합성된다(S500). 상기 합성된 단일 영상은 합성된 제1 안저영상 또는 제2 안저영상의 영상 프레임 보다 확장된 영상 프레임을 가진다. 이로 인해, 단일 안저영상의 촬영영역 보다 더 넓은 뷰를 갖는, 합성영상이 생성된다(S500). Additionally, the registration method includes a step (S500) of synthesizing the registered fundus images to generate a wide-angle fundus image (eg, by the synthesis unit 500). Based on the registration result of step S450, the first fundus image and the second fundus image used for registration in step S400 are synthesized into a single partially overlapping image (S500). The synthesized single image has an image frame that is expanded than the image frame of the synthesized first or second fundus image. As a result, a composite image having a wider view than the shooting area of a single fundus image is generated (S500).

도 4에 도시된 바와 같이, 단계(S500)의 합성 영상은 제1 안저영상과 제2 안저영상의 중첩 부분 및 그 이외의 부분으로 이루어진다. As shown in FIG. 4, the composite image of step S500 consists of the overlapping portion of the first fundus image and the second fundus image and other portions.

일 실시예에서, 상기 광각 안저영상을 생성하기 위한 제1 안저영상과 제2 안저영상을 합성하는 단계는: B-스플라인 최적화 이후, 혈관 마스크의 정합으로부터의 변위 벡터(displacement vector)를 산출하는 단계; 및 산출된 변위 벡터를 제1 안저영상 또는 제2 안저영상에 적용하는 단계를 포함할 수도 있다. 변위 벡터의 적용으로 인해 포토 몽타주가 확장된다. 상기 변위 벡터는 합성의 소스영상(예컨대, 제1 안저영상)과 합성의 타겟 영상(예컨대, 제2 안저영상)가 지정되면, 소스형상(예컨대, 제1 혈관 마스크)과 타겟형상(예컨대, 제2 혈관 마스크)의 각 지점들 간의 거리들의 합을 최소하는 파라미터에 대응할 수도 있다. In one embodiment, the step of combining the first fundus image and the second fundus image to generate the wide-angle fundus image includes: calculating a displacement vector from the registration of the blood vessel mask after B-spline optimization. ; And it may include applying the calculated displacement vector to the first fundus image or the second fundus image. The photomontage is expanded due to the application of displacement vectors. When a synthetic source image (e.g., a first fundus image) and a synthetic target image (e.g., a second fundus image) are designated, the displacement vector is generated by specifying a source shape (e.g., a first blood vessel mask) and a target shape (e.g., a first fundus image). 2 may correspond to a parameter that minimizes the sum of the distances between each point of the blood vessel mask.

상기 변위 벡터는 소스영상의 에지형상에 대한 타겟영상의 에지형상의 거리 변환(Distance Transform, DT) 상의 탐색을 통해 산출될 수도 있다. 예를 들어, 소스영상의 에지형상에 대해 대상영상의 타겟형상을 거리맵 상에서 픽셀단위로 옮기면서 각 지점에서의 거리의 합을 각각 산출함으로써, 거리의 합이 최소가 되는 파라미터를 산출할 수도 있다. The displacement vector may be calculated through a search on the distance transform (DT) of the edge shape of the target image with respect to the edge shape of the source image. For example, by calculating the sum of the distances at each point while moving the target shape of the target image in pixel units on the distance map with respect to the edge shape of the source image, a parameter that minimizes the sum of distances may be calculated.

단계(S500)에서 생성된 합성영상이 사용자에게 제공될 수도 있다. The composite image generated in step S500 may be provided to the user.

일 실시예에서, 상기 단계(S500)는: 제1 안저영상과 제2 안저영상 간의 영상 사양(image specification)의 차이를 최소화하는 단계를 포함할 수도 있다. In one embodiment, the step (S500) may include: minimizing the difference in image specifications between the first fundus image and the second fundus image.

상기 영상 사양은 영상 프레임에 나타난 외관(appearance)의 세기, 색상, 및/또는 대비(contrast)를 포함한다. 외부 광의 색상 세기(intensity), 산란, 눈꺼풀의 열림 등을 포함한, 안저영상에 영향을 미치는 촬영 요소의 변화로 인해 영상 프레임별로 개별적인 영상 사양을 가진다. 때문에, 몽타주를 위해 추가로 합성될 영상(즉, 제2 안저영상)과 기존의 영상(즉, 제1 안저영상) 간의 영상 사양을 다를 수도 있다. 서로 다른 영상 사양을 갖는 안저영상이 정합되면, 중첩되는 영역은 서로 다른 픽셀 값을 가진다. 이를 해결하기 위해, 영상 사양의 차이가 최소화된다(S500). The image specifications include the intensity, color, and/or contrast of the appearance in the image frame. Each image frame has individual image specifications due to changes in imaging factors that affect the fundus image, including color intensity of external light, scattering, eyelid opening, etc. Therefore, the image specifications may be different between the image to be additionally synthesized for the montage (i.e., the second fundus image) and the existing image (i.e., the first fundus image). When fundus images with different image specifications are matched, the overlapping areas have different pixel values. To solve this, the difference in image specifications is minimized (S500).

일 실시예에서, 상기 제1 안저영상과 제2 안저영상 간의 영상 사양(image specification)의 차이를 최소화하는 단계는: 정합으로 중첩된 영역의 주변의 색상왜곡을 제거하기 위해, 상기 제1 안저영상의 픽셀에 대응하는 제2 안저 영상의 픽셀은 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계를 포함할 수도 있다. In one embodiment, the step of minimizing the difference in image specifications between the first fundus image and the second fundus image includes: removing the color distortion around the overlapped area by registration, The step of modifying the pixel of the second fundus image corresponding to the pixel to have the same intensity or color may be included.

각 영상 간의 대응하는 픽셀 관계는 상기 대응하는 픽셀은 정합영상의 픽셀 좌표를 기준으로 결정된다. 단계(S500)에서는 대응하는 픽셀은 재-정합영상의 픽셀 좌표를 기준으로 결정된다. The corresponding pixel relationship between each image is determined based on the pixel coordinates of the registered image. In step S500, the corresponding pixel is determined based on the pixel coordinates of the re-registered image.

그러면, 변형된 픽셀로 이루어진, 색상왜곡이 제거된 중첩 영역을 포함한 합성영상이 단일 영상으로 생성될 수도 있다. Then, a composite image consisting of deformed pixels and including an overlapping area from which color distortion has been removed may be generated as a single image.

일 실시예에서, 상기 제1 안저영상과 제2 안저영상의 중첩 영역 및 경계에서 다중 해상도 스플라인 기법을 사용하여 1 안저영상과 제2 안저영상 간의 영상 사양(image specification)의 차이를 최소화할 수도 있다. In one embodiment, the difference in image specification between the first fundus image and the second fundus image may be minimized by using a multi-resolution spline technique in the overlapping area and boundary between the first fundus image and the second fundus image. .

상기 다중 해상도 스플라인 기법은 제1 안저영상과 제2 안저영상의 쌍의 중심 주변의 가중치들을 부여한 다음 가우시안 필터 및 라플라시안 필터를 적용하여 영상 프레임의 각 레이어 간의 영상 세기의 차이를 최소화할 수도 있다. 그러면, 도 4에 도시된 바와 같이, 영상 세기(intensity)의 차이가 제거된 광각 안저영상이 획득된다. The multi-resolution spline technique may minimize the difference in image intensity between each layer of the image frame by assigning weights around the center of the pair of the first and second fundus images and then applying a Gaussian filter and a Laplacian filter. Then, as shown in FIG. 4, a wide-angle fundus image from which differences in image intensity are removed is obtained.

도 8a 및 도 8b는, 본 발명의 일 실시예에 따른, 색상왜곡을 제거한 정합 영상을 도시한 도면이다.FIGS. 8A and 8B are diagrams illustrating a registered image with color distortion removed, according to an embodiment of the present invention.

특징점 기반 정합영상에 정합 부분은 특징점 부분이다. 혈관의 특징점이 사용된 경우, 정합 부분은 혈관 부분을 포함한다. 제1 및 제2 안저영상의 색상 또는 세기가 상이한 경우, 도 8a에 도시된 바와 같이, 정합부분의 주변의 픽셀이 단일 색상 또는 세기로 보정된 정합영상을 획득할 수도 있다. The registration part of a feature point-based registration image is the feature point part. When blood vessel feature points are used, the registration portion includes the blood vessel portion. When the colors or intensities of the first and second fundus images are different, as shown in FIG. 8A, a registered image in which pixels around the registration area are corrected to a single color or intensity may be obtained.

혈관 기반 정합영상에서 정합 부분은 추출된 혈관 영역이다. 제1 및 제2 안저영상의 색상 또는 세기가 상이한 경우, 도 8b에 도시된 바와 같이, 정합부분의 주변의 픽셀이 단일 색상 또는 세기로 보정된 정합영상을 획득할 수도 있다. In a blood vessel-based registered image, the registered part is the extracted blood vessel area. When the colors or intensities of the first and second fundus images are different, as shown in FIG. 8B, a registered image in which pixels around the registration part are corrected to a single color or intensity may be obtained.

이러한 영상 사양의 차이를 제거한 결과, 정합부분이 단일 영상으로 통일성을 갖는 광각 안저영상을 제공할 수도 있다(S500).As a result of eliminating these differences in image specifications, it is possible to provide a wide-angle fundus image in which the registration part has unity as a single image (S500).

상기 단계(S400) 및 단계(S500)는 다음 정합 순위를 갖는 안저영상 및 이미 생성된 합성영상에 대해 반복하여 수행된다. 유효성 검증을 통과하지 못한 안저영상이 존재하지 않는 한, 단계(S100)에서 획득된 복수의 안저영상 전체에 대해서 정합 순서에 따라 단계(S400) 및 단계(S500)가 반복 수행된다. The steps S400 and S500 are repeatedly performed on the fundus image with the next matching rank and the already generated composite image. Unless there is a fundus image that fails the validation, steps S400 and S500 are repeatedly performed according to the registration order for all of the plurality of fundus images acquired in step S100.

예를 들어, 초기 안저영상이 선택되면, 제1 그룹 내 정합 순위로부터 제4 그룹 내 정합 순위에 따라 나머지 안저영상이 합성되고, 최종 광각 안저영상이 생성된다. For example, when the initial fundus image is selected, the remaining fundus images are synthesized according to the registration ranking within the first group to the registration ranking within the fourth group, and the final wide-angle fundus image is generated.

대안적인 실시예들에서, 상기 이미 합성된 광각 안저영상에 추가될 다른 안저영상은 다른 그룹 내 안저영상들을 정합하여 합성한 서브 광각 안저영상일 수도 있다. 예를 들어, 제1 그룹 내 안저영상들을 정합하여 제1 서브 광각 안저영상을 생성하고, 제2 그룹 내 안저영상들을 정합하여 제2 서브 광각 안저영상을 생성하면, 상기 제1 서브 광각 안저영상과 제2 서브 광각 안저영상을 정합하여 보다 확장된 광각 안저영상을 생성할 수도 있다. In alternative embodiments, another fundus image to be added to the already synthesized wide-angle fundus image may be a sub-wide-angle fundus image synthesized by matching fundus images in different groups. For example, if the first sub-wide-angle fundus image is generated by matching the fundus images in the first group, and the second sub-wide-angle fundus image is generated by matching the fundus images in the second group, the first sub-wide-angle fundus image and A more expanded wide-angle fundus image may be generated by matching the second sub-wide-angle fundus image.

이 경우, 제1 서브 광각 안저영상과 제2 서브 광각 안저영상의 정합 및 합성은 각 서브 광각 안저영상 전체를 통해 수행되거나, 또는 각 서브 광각 안저영상 중 하나의 안저영상을 통해 수행될 수도 있다. 예를 들어, 제1 서브 광각 안저영상과 제2 서브 광각 안저영상을 정합 및 합성할 경우, 제2 그룹 내 가장 높은 정합 순위를 갖는 첫번?? 안저영상과 제1 그룹 내 가장 낮은 정합 순위를 갖는 마지막 안저영상이 사용될 수도 있다. In this case, registration and synthesis of the first sub-wide-angle fundus image and the second sub-wide-angle fundus image may be performed through all of the sub-wide-angle fundus images, or may be performed through one fundus image among each sub-wide-angle fundus image. For example, when registering and combining the first sub-wide-angle fundus image and the second sub-wide-angle fundus image, the first one with the highest registration rank in the second group?? The fundus image and the last fundus image with the lowest matching rank within the first group may be used.

도 9 및 도 10은, 도 3의 방법에 따른 최종 광각 안저영상의 생성 결과를 도시한다. Figures 9 and 10 show the results of generating the final wide-angle fundus image according to the method of Figure 3.

도 9 및 도 10은 서로 다른 안저영상의 세트로부터 생성된 광각 안저영상이다. 도 9 및 도 10에 도시된 바와 같이, 상기 도 3의 방법에 따르면 전 영역에서 정확하게 정합된 광각 안저영상이 생성된다. 9 and 10 are wide-angle fundus images generated from sets of different fundus images. As shown in FIGS. 9 and 10, according to the method of FIG. 3, a wide-angle fundus image accurately registered in the entire area is generated.

이상에서 설명한 실시예들에 따른 장치 및 안저영상 정합 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. According to the embodiments described above The operation of the device and the fundus image registration method may be at least partially implemented as a computer program and recorded on a computer-readable recording medium. For example, implemented with a program product comprised of a computer-readable medium containing program code, which can be executed by a processor to perform any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be a computing device, such as a desktop computer, laptop computer, notebook, smart phone, or the like, or any device that may be integrated. A computer is a device that has one or more alternative, special-purpose processors, memory, storage, and networking components (either wireless or wired). The computer may run an operating system such as, for example, Microsoft's Windows-compatible operating system, Apple's OS X or iOS, a Linux distribution, or Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording and identification devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage and identification devices. Additionally, computer-readable recording media may be distributed across computer systems connected to a network, and computer-readable codes may be stored and executed in a distributed manner. Additionally, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.The present invention discussed above has been described with reference to the embodiments shown in the drawings, but these are merely illustrative examples, and those skilled in the art will understand that various modifications and modifications of the embodiments are possible therefrom. However, such modifications should be considered within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached patent claims.

본 발명의 일 측면에 따른 안저영상 정합 방법은 4차 산업 기술 중 하나인 기계 학습(machine learning)을 이용하여 a) 혈관 영역을 추출할 수도 있다. The fundus image registration method according to one aspect of the present invention may use machine learning, one of the 4th industrial technologies, to extract a) blood vessel area.

안저 변화를 검출함에 있어서, 별도의 레이저 스캔 장치를 요구하지 않고, 전술한 과정을 통해 안저 카메라(fundus camera)를 이용하여 쉽게 광각 안저영상을 획득할 수 있다. 안저 카메라는 침습적인 처치가 필요하지 않고 방사선을 사용하지 않을 뿐만 아니라 촬영 시간이 수 분 이내로 짧다. 이러한 안저 카메라를 이용한 안저 검사는 비용이 매우 저렴하다(현재 보험수가 7990원, 일반수가 20770원)이다. 또한, 안저 카메라는 거의 모든 안과의원 및 안과병원에 보급되어 있을 뿐만 아니라 다수의 검진센터들도 보유하고 있어, 접근성, 보급성이 뛰어나다. In detecting changes in the fundus, a wide-angle fundus image can be easily obtained using a fundus camera through the above-described process without requiring a separate laser scanning device. The fundus camera does not require invasive procedures, does not use radiation, and has a short imaging time of less than a few minutes. The cost of fundus examination using this fundus camera is very cheap (current insurance fee is 7,990 won, general fee is 20,770 won). In addition, fundus cameras are distributed to almost all ophthalmological clinics and ophthalmological hospitals, and many examination centers also have them, making them highly accessible and popular.

이러한 장점을 갖는 안저 사진 촬영을 이용하여 광각 안저영상을 생성할 수 있다면 안저 변화에 관련된 다양한 안구 질환을 판독하는 것을 지원할 수 있어, 획기적인 발전을 이룰 것으로 예상된다. If wide-angle fundus images can be created using fundus photography, which has these advantages, it is expected to achieve groundbreaking developments by supporting the interpretation of various eye diseases related to fundus changes.

Claims (20)

프로세서를 포함한 컴퓨팅 장치에 의해 수행되는, 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법에 있어서,
대상자의 안구를 촬영한 상기 복수의 안저영상을 획득하는 단계 - 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨;
상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하여 상기 시신경 유두 및 중심와 중 적어도 하나의 위치를 산출하는 단계;
상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 제1 내지 제4 그룹을 포함하는 복수의 그룹으로 각각 분류하는 단계;
상기 복수의 그룹에 대하여 그룹 간 정합 순위를 할당하는 단계;
그룹 별 안저영상에 대해 그룹 내 정합 순위를 할당하는 단계;
상기 복수의 안저영상의 제1 안저영상을 제2 안저영상과 정합하는 단계; 및
광각 안저영상을 생성하기 위해, 재-정합 결과에 기초하여 제1 안저영상의 적어도 일부 영역과 상기 제2 안저영상의 적어도 일부가 중첩한 합성영상을 생성하는 단계 - 상기 제1 안저영상은 초기 안저영상 또는 이미 생성된 합성영상이고 상기 제2 안저영상은 그룹 내 정합 순위로서, 현재의 정합 순위를 갖는 안저영상임 - ;를 포함하고,
상기 제1 및 제2 안저영상을 정합하고 합성영상을 생성하는 단계는 각 그룹에 포함된 안저영상들이 그룹 간 정합 순위에 기초하여 전부 정합될 때까지 반복되며,
상기 복수의 그룹에 대하여 그룹 간 정합 순위를 할당하는 단계는:
각 그룹에 대하여 그룹 간 정합 순위를 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 제1 그룹, 제3 그룹, 제2 그룹 및 제4 그룹의 순서로 할당하는 단계를 포함하고,
상기 그룹 별 안저영상에 대해 그룹 내 정합 순위를 할당하는 단계는:
제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 그룹 별 기준 안저영상을 선택하는 단계; 및
상기 기준 안저영상에서 검출되는 시신경 유두와 각 그룹에 포함되는 안저영상에서 검출되는 시신경 유두 사이의 거리에 기초하여 각 그룹의 각 안저영상에 대해 그룹 내 정합 순위를 할당하는 단계를 포함하고,
상기 그룹 간 정합 순위로서, n+1 순위(여기서, n은 1 내지 3 사이의 자연수)를 갖는 그룹에서 가장 높은 그룹 내 정합 순위는, 상기 그룹 간 정합 순위로서, n 순위를 갖는 그룹에서 가장 낮은 그룹 내 정합 순위에 다음하도록 할당되는 것을 특징으로 하는 방법.
A method of registering a plurality of fundus images to generate a wide-angle fundus image, performed by a computing device including a processor, comprising:
Obtaining the plurality of fundus images of the subject's eye - at least one fundus image of the plurality of fundus images partially overlaps with at least one other fundus image;
Detecting at least one of an optic disc and a fovea in the plurality of fundus images and calculating the position of at least one of the optic disc and the fovea;
classifying the plurality of fundus images into a plurality of groups including first to fourth groups depending on whether the optic nerve head and the fovea are detected;
assigning inter-group matching ranks to the plurality of groups;
Assigning an intra-group matching rank to the fundus images for each group;
Matching a first fundus image of the plurality of fundus images with a second fundus image; and
In order to generate a wide-angle fundus image, generating a composite image in which at least a portion of the first fundus image overlaps with at least a portion of the second fundus image based on a re-registration result - the first fundus image is an initial fundus image It is an image or a composite image that has already been created, and the second fundus image is a registration rank within the group, and is a fundus image with a current registration rank -;
The step of matching the first and second fundus images and generating a composite image is repeated until all fundus images included in each group are matched based on the inter-group registration ranking,
The step of assigning inter-group matching ranks to the plurality of groups is:
For each group, it includes assigning an inter-group matching rank in the order of the first group, the second group, the third group, and the fourth group, or the order of the first group, the third group, the second group, and the fourth group. do,
The step of assigning an intra-group matching rank to the fundus images for each group is:
For at least one group among the first to third groups, selecting a reference fundus image for each group; and
A step of assigning an intra-group matching rank to each fundus image of each group based on the distance between the optic nerve head detected in the reference fundus image and the optic nerve head detected in the fundus image included in each group,
As the inter-group matching rank, the highest intra-group matching rank in a group with n+1 rank (where n is a natural number between 1 and 3) is the inter-group matching rank, and the lowest in the group with n rank. A method characterized in that the matching ranking within the group is assigned to the following.
제1항에 있어서, 상기 제1 및 제2 안저영상의 특징점에 기초하여 제1 안저영상과 제2 안저영상을 정합하는 단계는,
영상의 크기와 회전에 불변하는 특징을 추출하는 특징 서술자를 통해 적어도 하나의 특징점을 상기 제1 및 제2 안저영상에서 추출하는 단계;
상기 제1 및 제2 안저영상에서 추출된 특징점 중 하나 이상의 특징점을 샘플링하는 단계; 및
샘플링된 특징점에 기초하여 상기 제1 및 제2 안저영상을 강체 정합하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the step of matching the first fundus image and the second fundus image based on feature points of the first and second fundus images comprises:
Extracting at least one feature point from the first and second fundus images through a feature descriptor that extracts features that are invariant to the size and rotation of the image;
sampling one or more feature points among the feature points extracted from the first and second fundus images; and
A method comprising rigid body registration of the first and second fundus images based on sampled feature points.
제1항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
상기 제1 안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상의 적어도 일부의 혈관 형상을 추출하는 단계; 및
혈관 영역에 대응한 형상을 갖는 혈관 마스크를 생성하는 단계를 포함하고,
상기 분할 모델은,
혈관 영역의 특성에 기초하여 학습된 모델로서, 입력영상 내 혈관을 혈관 확률맵(Vessel Probaibility Map)으로 출력하도록 학습된 것을 특징으로 하는 방법.
The method of claim 1, wherein generating the first blood vessel mask from the first fundus image comprises:
extracting the shape of at least some blood vessels of the first fundus image using a segmentation model based on region characteristics within the first fundus image; and
Generating a blood vessel mask having a shape corresponding to the blood vessel region,
The split model is,
A model learned based on the characteristics of the blood vessel region, and a method characterized in that it is learned to output the blood vessels in the input image as a vessel probability map.
제3항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
추출된 혈관 형상을 혈관 영역으로 포함한 영상을 이진화하여 이진화 혈관 마스크를 생성하는 단계;
이진화 혈관 마스크를 포함한 영상을 반전(inverted) 처리하여 혈관과 외부 경계 사이의 밸리(velly)를 검출하는 단계; 및
밸리 내부가 상기 혈관을 나타내도록 상기 밸리 내부를 채우는 단계를 더 포함하는 것을 특징으로 하는 방법.
The method of claim 3, wherein generating the first blood vessel mask from the first fundus image comprises:
Generating a binarized blood vessel mask by binarizing an image including the extracted blood vessel shape as a blood vessel area;
detecting a valley between a blood vessel and an external boundary by inverting an image including a binarized blood vessel mask; and
The method further comprising filling the interior of the valley so that the interior of the valley represents the blood vessel.
제1항에 있어서, 제1 및 제2 혈관 마스크에 기초하여 상기 제1 안저영상과 제2 안저영상을 재-정합하는 단계는,
제1 혈관 마스크와 제2 혈관 마스크를 변형 정합(deformable registration)하여 제1 안저영상과 제2 안저영상을 재-정합하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein re-registering the first fundus image and the second fundus image based on the first and second blood vessel masks comprises:
A method comprising the step of re-registering the first fundus image and the second fundus image by performing deformable registration of the first blood vessel mask and the second blood vessel mask.
제1항에 있어서, 상기 광각 안저영상을 생성하는 단계는,
재-정합 영상을 기준으로 상기 제1 안저영상의 픽셀에 대응하는 제2 안저 영상의 픽셀이 상기 제1 안저영상의 픽셀과 동일한 세기(intensity) 또는 색상(colour)을 갖도록 변형하는 단계; 및
상기 변형된 픽셀로 이루어진 영역을 포함한 광각 안저영상을 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein generating the wide-angle fundus image comprises:
Transforming pixels of a second fundus image corresponding to pixels of the first fundus image based on the re-registered image to have the same intensity or color as the pixels of the first fundus image; and
A method comprising generating a wide-angle fundus image including an area comprised of the deformed pixels.
제1항에 있어서, 상기 제1 안저영상에서 제1 혈관 마스크를 생성하는 단계는,
복수의 제1 안저영상이 획득된 경우, 각각의 제1 안저영상의 특징점에 기초하여 상기 복수의 제1 안저영상을 정합하는 단계;
안저영상 내 영역 특성에 기초한 분할 모델을 이용하여 상기 제1 안저영상에서 제1 영역의 적어도 일부의 혈관 형상을 추출하는 단계; 및
상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein generating the first blood vessel mask from the first fundus image comprises:
When a plurality of first fundus images are acquired, matching the plurality of first fundus images based on feature points of each first fundus image;
extracting the shape of at least a portion of blood vessels in a first region from the first fundus image using a segmentation model based on region characteristics within the fundus image; and
A method comprising generating a first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images.
제7항에 있어서, 상기 복수의 제1 안저영상의 추출된 혈관 형상에 기초하여 제1 혈관 마스크를 생성하는 단계는,
복수의 제1 안저영상의 추출된 혈관 형상을 비강체 정합하는 단계; 및
정합된 복수의 혈관 형상에 기초하여 상기 제1 혈관 마스크를 생성하는 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 7, wherein the step of generating a first blood vessel mask based on the extracted blood vessel shapes of the plurality of first fundus images comprises:
Non-rigidly registering the extracted blood vessel shapes of the plurality of first fundus images; and
A method comprising generating the first blood vessel mask based on a plurality of registered blood vessel shapes.
제8항에 있어서, 상기 비강체 정합하는 단계는,
서로 다른 두 개의 제1 안저영상의 혈관 확률맵에서 픽셀별(pixel-wise) 유사도가 높아지는 방향으로 정합하는 것을 특징으로 하는 방법.
The method of claim 8, wherein the step of non-rigid body registration,
A method characterized by matching in the direction of increasing pixel-wise similarity in the blood vessel probability maps of two different first fundus images.
삭제delete 제1항에 있어서, 상기 시신경 유두 및 중심와 중 적어도 하나를 검출하여 위치를 산출하는 단계는,
딥러닝 모델을 사용해서 입력된 안저영상의 영상 프레임에서 시신경 유두 및 중심와 중 적어도 하나를 검출하고,
상기 딥러닝 모델은:
다수의 컨볼루션 레이어를 포함하며 컨볼루션 특징맵을 출력하는 공유 컨볼루션 네트워크;
입력된 컨볼루션 특징맵에 슬라이딩 윈도우 방식을 적용하여 중간 특징맵을 생성하고, 상기 중간 특징맵에 기초하여 후보 객체가 위치할 가능성이 있는 관심지역을 예측하는 지역 지정 네트워크; 및
풀링 레이어 및 완전연결 레이어를 포함하며 검출 모델에 초기 입력된 영상 프레임에서 관심지역에 대한 특징 벡터에 기초하여 상기 관심지역에서 시신경 유두 또는 중심와를 검출하는 객체 검출 네트워크를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein the step of detecting at least one of the optic nerve head and the fovea and calculating the location comprises:
Detect at least one of the optic nerve head and fovea in the image frame of the input fundus image using a deep learning model,
The deep learning model is:
A shared convolutional network that includes multiple convolutional layers and outputs a convolutional feature map;
A region designation network that generates an intermediate feature map by applying a sliding window method to the input convolutional feature map and predicts a region of interest where a candidate object is likely to be located based on the intermediate feature map; and
A method comprising an object detection network that includes a pooling layer and a fully connected layer and detects the optic nerve head or fovea in the region of interest based on the feature vector for the region of interest in the image frame initially input to the detection model.
제1항에 있어서, 상기 복수의 안저영상을 복수의 그룹으로 분류하는 단계는:
상기 시신경 유두 및 중심와가 모두 검출된 안저영상을 제1 그룹으로 분류하는 단계;
상기 시신경 유두만이 검출된 안저영상을 제2 그룹으로 분류하는 단계;
상기 중심와만이 검출된 안저영상을 제3 그룹으로 분류하는 단계; 및
상기 시신경 유두 및 중심와가 모두 검출되지 않은 안저영상을 제4 그룹으로 분류하는 단계 중 적어도 하나의 단계를 포함하는 것을 특징으로 하는 방법.
The method of claim 1, wherein classifying the plurality of fundus images into a plurality of groups includes:
Classifying the fundus image in which both the optic nerve head and the fovea are detected into a first group;
Classifying the fundus image in which only the optic nerve head is detected into a second group;
Classifying the fundus image in which only the fovea is detected into a third group; and
A method comprising at least one step of classifying the fundus image in which neither the optic nerve head nor the fovea is detected into a fourth group.
삭제delete 제1항에 있어서,
상기 제1 그룹 또는 제2 그룹의 기준 안저영상은 각 안저영상의 검출된 시신경 유두의 위치가 영상 프레임의 중심의 위치에 가장 가까운 것을 특징으로 하는 방법.
According to paragraph 1,
The method of the reference fundus image of the first or second group is characterized in that the position of the detected optic nerve head of each fundus image is closest to the position of the center of the image frame.
제1항에 있어서,
상기 제3 그룹의 기준 안저영상은 상기 제3 그룹 내 각 안저영상의 검출된 중심와의 위치가 영상 중심의 위치에 가장 가까운 것을 특징으로 하는 방법.
According to paragraph 1,
The reference fundus image of the third group is characterized in that the detected foveal position of each fundus image in the third group is closest to the position of the image center.
제12항에 있어서,
그룹별 안저영상에 대해 상기 그룹 내 정합 순위를 할당하는 단계는:
상기 제4 그룹별 안저영상에 대해 제4 그룹 내 정합 순위를 할당하는 단계를 포함하고,
상기 제4 그룹 내 정합 순위는 상기 제4 그룹 내 각 안저영상의 특징점이 상기 제1 안저영상의 특징점에 매칭하는 정도에 기초하여 할당되는 것을 특징으로 하는 방법.
According to clause 12,
The step of assigning the within-group registration rank to the fundus images for each group is:
Comprising the step of assigning a matching rank within the fourth group to the fundus image for each fourth group,
A method characterized in that the matching rank within the fourth group is assigned based on the degree to which the feature points of each fundus image within the fourth group match the feature points of the first fundus image.
삭제delete 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제9항, 제11항, 제12항 및 제14항 내지 제16항 중 어느 하나의 항에 따른 광각 안저영상을 생성하기 위해 복수의 안저영상을 정합하는 방법을 수행하게 하는 컴퓨터 판독가능 기록매체.
A computer-readable recording medium that is readable by a computing device and stores program instructions operable by the computing device, wherein when the program instructions are executed by a processor of the computing device, the processor operates according to claims 1 to 9. A computer-readable recording medium for performing a method of registering a plurality of fundus images to generate a wide-angle fundus image according to any one of claims 11, 12, and 14 to 16.
삭제delete 안저 카메라에 의해 촬영된 복수의 안저영상을 획득하는 영상 획득부 - 상기 복수의 안저영상 중 적어도 하나의 안저영상은 적어도 하나의 다른 안저영상과 부분적으로 중첩됨 -;
상기 복수의 안저영상을 정합하기 이전에, 상기 복수의 안저영상에서 시신경 유두(optic disc) 및 중심와(fovea) 중 적어도 하나를 검출하여 상기 시신경 유두 및 중심와 중 적어도 하나의 위치를 산출하고, 상기 시신경 유두와 중심와의 검출 여부에 따라 상기 복수의 안저영상을 제1 내지 제4 그룹을 포함하는 복수의 그룹으로 각각 분류하고, 상기 복수의 그룹에 대해서 그룹 간 정합 순위를 할당하고, 그룹별 안저영상에 대해 그룹 내 정합 순위를 할당하는 분류부;
각 그룹에 포함된 안저영상들에 대해서, 해당 그룹 내 정합 순위에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상과 정합하는 정합부; 및
광각 안저영상을 생성하기 위해, 정합 결과에 기초하여 현재의 정합 순위를 갖는 안저영상을 이전 정합 순위까지의 적어도 하나의 안저영상을 정합하여 생성된 합성영상으로부터 새로운 합성영상을 생성하는 합성부를 포함하고,
상기 분류부는, 각 그룹에 대하여 그룹 간 정합 순위를 제1 그룹, 제2 그룹, 제3 그룹 및 제4 그룹의 순서 또는 제1 그룹, 제3 그룹, 제2 그룹 및 제4 그룹의 순서로 할당하고,
제1 그룹 내지 제3 그룹 중 적어도 하나의 그룹에 대해서, 그룹 별 기준 안저영상을 선택하고, 상기 기준 안저영상에서 검출되는 시신경 유두와 각 그룹에 포함되는 안저영상에서 검출되는 시신경 유두 사이의 거리에 기초하여 각 그룹의 각 안저영상에 대해 그룹 내 정합 순위를 할당하고,
그룹 간 정합 순위로서, n+1 (여기서, 상기 n은 1 내지 3 사이의 자연수) 순위를 갖는 그룹에서 가장 높은 그룹 내 정합 순위를 갖는 안저영상에, 상기 그룹 간 정합 순위로서, n 순위를 갖는 그룹에서 가장 낮은 그룹 내 정합 순위를 갖는 안저영상의 다음 그룹 내 정합 순위를 할당하는 것을 특징으로 하는 장치.
An image acquisition unit that acquires a plurality of fundus images captured by a fundus camera - at least one fundus image among the plurality of fundus images partially overlaps with at least one other fundus image;
Before matching the plurality of fundus images, at least one of the optic disc and the fovea is detected in the plurality of fundus images to calculate the position of at least one of the optic disc and the fovea, and the optic nerve Depending on whether the papilla and fovea are detected, the plurality of fundus images are classified into a plurality of groups including first to fourth groups, an inter-group matching rank is assigned to the plurality of groups, and the fundus images for each group are assigned. a classification unit that assigns a matching rank within a group;
For the fundus images included in each group, a registration unit that matches the fundus image with the current registration rank with a synthetic image generated by matching at least one fundus image up to the previous registration rank based on the registration rank within the group. ; and
In order to generate a wide-angle fundus image, it includes a synthesis unit that generates a new composite image from a composite image generated by matching the fundus image with the current matching rank with at least one fundus image up to the previous matching rank based on the matching result; ,
The classification unit assigns the inter-group matching rank to each group in the order of the first group, the second group, the third group, and the fourth group, or the order of the first group, the third group, the second group, and the fourth group. do,
For at least one group among the first to third groups, a reference fundus image for each group is selected, and the distance between the optic nerve head detected in the reference fundus image and the optic nerve head detected in the fundus image included in each group is adjusted. Based on this, an intra-group matching rank is assigned to each fundus image in each group,
As the inter-group matching rank, the fundus image having the highest intra-group matching rank in the group with a rank of n+1 (where n is a natural number between 1 and 3), and as the inter-group matching rank, having a n rank. A device characterized in that it assigns the next within-group registration rank of the fundus image having the lowest within-group registration rank in the group.
KR1020210069167A 2020-06-12 2021-05-28 Method for registrating fundus images to generate wide angle fundus image and device performing the same KR102575371B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200071893 2020-06-12
KR20200071893 2020-06-12

Publications (2)

Publication Number Publication Date
KR20210154732A KR20210154732A (en) 2021-12-21
KR102575371B1 true KR102575371B1 (en) 2023-09-08

Family

ID=79165667

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210069167A KR102575371B1 (en) 2020-06-12 2021-05-28 Method for registrating fundus images to generate wide angle fundus image and device performing the same

Country Status (1)

Country Link
KR (1) KR102575371B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544377A (en) * 2006-07-28 2009-12-17 カール ツァイス メディテック アクチエンゲゼルシャフト How to adjust the fundus panoramic image
WO2018109640A1 (en) * 2016-12-15 2018-06-21 Novartis Ag Adaptive image registration for ophthalmic surgery
JP2018171177A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Fundus image processing device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101761510B1 (en) 2016-05-27 2017-07-26 이화여자대학교 산학협력단 Apparatus and method for generating fundus image filters for vascular visualization of fundus image
KR102194797B1 (en) * 2018-11-16 2020-12-23 서울여자대학교 산학협력단 Method, device and program for lung image registration for histogram analysis of lung movement and method and program for analysis of registered lung image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009544377A (en) * 2006-07-28 2009-12-17 カール ツァイス メディテック アクチエンゲゼルシャフト How to adjust the fundus panoramic image
WO2018109640A1 (en) * 2016-12-15 2018-06-21 Novartis Ag Adaptive image registration for ophthalmic surgery
JP2018171177A (en) * 2017-03-31 2018-11-08 大日本印刷株式会社 Fundus image processing device

Also Published As

Publication number Publication date
KR20210154732A (en) 2021-12-21

Similar Documents

Publication Publication Date Title
US11775056B2 (en) System and method using machine learning for iris tracking, measurement, and simulation
Hasan et al. DRNet: Segmentation and localization of optic disc and Fovea from diabetic retinopathy image
JP6514325B2 (en) System and method for segmenting medical images based on anatomical landmark-based features
US20190201106A1 (en) Identification and tracking of a predefined object in a set of images from a medical image scanner during a surgical procedure
JP6333265B2 (en) Multiple bone segmentation method for 3D computed tomography
US10657649B2 (en) Method, apparatus and system for analyzing medical images of blood vessels
US9858667B2 (en) Scan region determining apparatus
CN106340021B (en) Blood vessel extraction method
WO2020260936A1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Qin et al. Surgical instrument segmentation for endoscopic vision with data fusion of cnn prediction and kinematic pose
CN108985210A (en) A kind of Eye-controlling focus method and system based on human eye geometrical characteristic
Zhu et al. Automatic segmentation of the left atrium from MR images via variational region growing with a moments-based shape prior
JP7410619B2 (en) Image processing device, image processing method and program
KR102250688B1 (en) Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography
CN112750531A (en) Automatic inspection system, method, equipment and medium for traditional Chinese medicine
David et al. Retinal blood vessels and optic disc segmentation using U-net
CN110929570B (en) Iris rapid positioning device and positioning method thereof
Dharmawan et al. A new optic disc segmentation method using a modified Dolph-Chebyshev matched filter
Sun et al. Cascade faster R-CNN detection for vulnerable plaques in OCT images
Ghassabi et al. A unified optic nerve head and optic cup segmentation using unsupervised neural networks for glaucoma screening
Zhou et al. Segmentation of optic disc in retinal images using an improved gradient vector flow algorithm
KR102250689B1 (en) Method and device for automatic vessel extraction of fundus photography using registration of fluorescein angiography
KR102575371B1 (en) Method for registrating fundus images to generate wide angle fundus image and device performing the same
Zhao et al. ECLNet: Center localization of eye structures based on Adaptive Gaussian Ellipse Heatmap
KR102575370B1 (en) Method for detecting change of fundus for longitudinal analysis of fundusimage and device performing the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right