WO2022197157A1 - 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법 - Google Patents

딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법 Download PDF

Info

Publication number
WO2022197157A1
WO2022197157A1 PCT/KR2022/003843 KR2022003843W WO2022197157A1 WO 2022197157 A1 WO2022197157 A1 WO 2022197157A1 KR 2022003843 W KR2022003843 W KR 2022003843W WO 2022197157 A1 WO2022197157 A1 WO 2022197157A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
learning
region
retinal
perfused
Prior art date
Application number
PCT/KR2022/003843
Other languages
English (en)
French (fr)
Inventor
백지원
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Publication of WO2022197157A1 publication Critical patent/WO2022197157A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1241Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes specially adapted for observation of ocular blood flow, e.g. by fluorescein angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Definitions

  • the present invention relates to a system and method for automatic detection of non-perfusion regions based on deep learning.
  • Diabetic retinopathy is the most frequent complication of type 1 or type 2 diabetes. In addition, in the case of diabetic retinopathy, it has a fatal effect on humans to the extent that it corresponds to the number one cause of adult blindness worldwide. The formation and expansion of non-perfused retinal capillaries has a great influence on the progression of diabetic retinopathy. Diabetic retinopathy begins with the onset of retinal capillary abnormalities, and the non-perfusion region occurs as the tip of the capillary is dropped off (drop-out). At this time, as the non-perfusion region gradually expands, neovascularization occurs. And diabetic retinopathy progresses from non-proliferative to proliferative. This advanced diabetic retinopathy eventually leads to blindness if not treated as vitreous and retinal hemorrhage and tractional retinal detachment (TRD) are combined. do.
  • TRD retinal hemorrhage and tractional retinal detachment
  • the non-perfused region in the retinal capillaries is involved in a wide range of pathophysiology from the relatively early stage of the pathology of diabetic retinopathy to blindness.
  • Non-perfused areas within the retina can be observed with fundus angiography.
  • fundus angiography With the development of wide-angle fundus imaging technology over the past 5 years, more than 80% of the entire retina can be observed with the currently commercialized ultra-wide-angle fundus camera. Therefore, it is possible to detect changes in the periphery of the retina that were not previously detected using fundus angiography. That is, accurately identifying the non-perfusion region in ultra-wide-angle fundus fluorescence angiography plays an important role in determining the patient's current condition and predicting the prognosis. This may be directly related to the adjustment of the patient's follow-up follow-up period, treatment method, and internal medical consultation. However, to date, there is no system that automatically detects non-perfused areas in ultra-wide-angle fundus fluorescence angiography.
  • Machine learning is a field of artificial intelligence and refers to the overall algorithm or program that learns or trains a computer to identify features and patterns of data such as images. Such machine learning has recently been applied to various industrial fields. In particular, in the medical field, machine learning based on data obtained in the examination process of a patient can be applied. Using this, it is possible to learn the detection of non-perfusion areas of ultra-wide-angle fundus fluorescence angiography and apply it to actual treatment.
  • the present invention for solving the above problems is to provide an apparatus and method for automatic detection of a non-perfusion region in a fundus fluorescence angiography image based on deep learning.
  • the generating may further include calculating the area of the non-perfused region in the first image, and the outputting may include outputting the second image including information indicating the calculated non-perfused area.
  • the automatic detection method of the non-perfusion region further includes learning the first model based on deep learning based on a plurality of retinal images, wherein the learning step includes preprocessing the plurality of retinal images to learn It is possible to generate data and train the deep learning-based first model based on the training data.
  • the learning step may further include generating the learning data by pre-processing the plurality of retinal images
  • the learning data generating step may include setting each retinal region in the plurality of retinal images, the Based on the properties of each of the plurality of retinal images, segmenting the image of each retinal region and applying the visual effect to at least one image corresponding to the non-perfused region among the divided images to obtain the learning data It may include the step of generating.
  • the automatic detection method of the non-perfusion region includes the steps of allocating the learning data to an inspector to request inspection, receiving an inspection result from the inspector and based on the inspection result, the deep learning-based first It may further include the step of training the model.
  • the preprocessing of the plurality of retinal images may be performed based on control of contrast of the plurality of retinal images and passing through a homomorphic filter.
  • the property may include at least one of homogeneity, signal strength, and entropy of each of the plurality of retinal images.
  • the method may further include determining a location of a new blood vessel based on a non-perfusion region detected in the first image, and the second image may be generated by further adding a visual effect indicating the new blood vessel. .
  • an apparatus for automatic detection of a non-perfusion region based on deep learning includes: an acquisition unit for receiving a first image of retinal capillaries; and inputting the first image into a pre-trained deep learning-based first model to detect a non-perfused region in the first image, and to identify the detected non-perfused region in the first image. and a controller configured to generate a second image by image processing and provide the first image and the second image.
  • the controller may calculate the area of the non-perfusion region in the first image and output the second image including information indicating the calculated area of the non-perfusion region.
  • the automatic detection apparatus of the non-perfusion region may further include a learning unit that pre-processes a plurality of image data to generate training data, and trains the deep learning-based first model based on the training data.
  • the learning unit pre-processes the plurality of retinal images to generate the learning data
  • the learning unit when generating the learning data, sets each retinal region in the plurality of retinal images, and Based on the respective properties of the retinal image of, the image of each retinal region is divided, and the visual effect is given to at least one image corresponding to the non-perfused region among the divided images to generate the learning data, ,
  • the learning unit when pre-processing the plurality of retinal images, pre-processes based on at least one of Contrast control and Homomorphic filter pass of the plurality of retinal images, and the property is, the homogeneity of each of the plurality of retinal images, signal It may include at least one of intensity and entropy.
  • control unit by allocating the learning data to the inspector to request the inspection, receive the inspection result from the inspector, the learning unit, based on the inspection result, the deep learning-based first model learning can do it
  • the controller may determine the location of the new blood vessel based on the non-perfusion region detected in the first image data, and the second image may be generated by further adding a visual effect indicating the new blood vessel. .
  • the computer program for performing the deep learning-based automatic detection method of the non-perfusion region according to another aspect of the present invention for solving the above-described problem may be stored in a storage medium.
  • FIG. 1 is a schematic configuration diagram of an apparatus for automatic detection of a non-perfusion region in a retinal image based on deep learning according to an embodiment of the present invention.
  • FIG. 2 is a schematic flowchart of a method for automatic detection of a non-perfusion region in a retinal image based on deep learning according to an embodiment of the present invention.
  • FIG 3 is an exemplary diagram of a second image to which a visual effect is applied after detecting a non-perfused region according to an embodiment of the present invention.
  • FIG. 4 is a flowchart schematically illustrating a method for learning a deep learning-based first model according to an embodiment of the present invention.
  • FIG. 5 is a flowchart schematically illustrating a method of generating learning data by preprocessing a plurality of retinal images according to an embodiment of the present invention.
  • FIG. 6 is a flowchart schematically illustrating a specific method of pre-processing a plurality of retinal images according to an embodiment of the present invention.
  • FIG. 7 is an exemplary diagram illustrating pre-processing of a plurality of retinal images according to an embodiment of the present invention.
  • FIG. 8 is an exemplary diagram illustrating preprocessing using a contrast control or an isomorphic filter of a retina image according to an embodiment of the present invention.
  • FIG. 9 is a flowchart schematically illustrating a method for learning a deep learning-based first model based on the inspection result of the inspector for the training data, according to an embodiment of the present invention.
  • FIG. 10 is an exemplary diagram illustrating learning of the deep learning-based first model based on the inspection result of the inspector for the learning data, according to an embodiment of the present invention.
  • the term “unit” refers to a hardware element such as software, FPGA, or ASIC, and “unit” performs certain roles. However, “part” is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors. Thus, by way of example, “part” refers to elements such as software elements, object-oriented software elements, class elements, and task elements, and processes, functions, properties, procedures, subroutines, and programs. It includes segments of code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within elements and “parts” may be combined into a smaller number of elements and “parts” or further separated into additional elements and “parts”.
  • all “units” may be controlled by at least one processor, and at least one processor may perform operations performed by the “units” of the present disclosure.
  • Embodiments of the present specification may be described in terms of a function or a block performing a function.
  • Blocks which may be referred to as 'parts' or 'modules' of the present disclosure, etc., include logic gates, integrated circuits, microprocessors, microcontrollers, memories, passive electronic components, active electronic components, optical components, hardwired circuits, and the like. It may be physically implemented by analog or digital circuitry, such as, and optionally driven by firmware and software.
  • Embodiments of the present specification may be implemented using at least one software program running on at least one hardware device and may perform a network management function to control an element.
  • FIG. 1 is a schematic configuration diagram of an apparatus for automatic detection of a non-perfusion region in a deep learning-based retinal image according to an embodiment of the present invention
  • FIG. 2 is a deep learning-based retinal image according to an embodiment of the present invention.
  • an apparatus 10 for automatic detection of a non-perfusion region in a retinal image based on deep learning includes an acquisition unit 110 , a learning unit 120 , a memory 130 , and a control unit 140 .
  • the acquisition unit 110 collects at least one retinal image of the user.
  • the acquisition unit 110 may acquire the retinal image of the user in conjunction with the fundus fluorescence contrast apparatus to be described later, or may directly acquire the retinal image of the user including the fundus fluorescence contrast module.
  • the acquisition unit 110 may receive a retina image about the user from an institution or company that provides medical services through a communication unit (not shown).
  • the acquisition unit 110 may further include a communication unit (not shown).
  • the communication unit may include one or more modules that enable wireless communication between the device 10 and a user terminal (not shown) or a server (not shown).
  • the communication unit may include one or more modules that connect the device 10 to one or more networks. Meanwhile, the communication unit (not shown) may transmit/receive various information between the device 10 and the user terminal (not shown).
  • Acquisition unit 110 may use various types of communication networks through the communication unit, for example, WLAN (Wireless LAN), Wi-Fi (Wi-Fi), Wibro (Wibro), Wimax (Wimax), HSDPA (High Speed Downlink Packet Access) ) or wired communication methods such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), and FTTH (Fiber To The Home) can be used.
  • WLAN Wireless LAN
  • Wi-Fi Wi-Fi
  • Wibro Wimax
  • HSDPA High Speed Downlink Packet Access
  • wired communication methods such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coax), FTTC (Fiber to The Curb), and
  • the learning unit 120 generates training data to pre-train the deep learning-based first model. This will be described later in detail in relation to performing a pre-processing operation of the apparatus 10 according to an embodiment of the present invention.
  • the memory 130 may store data supporting various functions of the device 10 .
  • the memory 130 may store a plurality of application programs (or applications) driven in the device 10 , data for operation of the device 10 , and commands.
  • an application or application related to the first deep learning-based model for automatically detecting non-perfusion regions within the retinal image is stored. At least some of these applications may exist for basic functions of the device 10 .
  • the application program may be stored in the memory 130 , installed on the device 10 , and driven to perform an operation (or function) of the device 10 by the controller 140 .
  • the controller 140 may generally control the overall operation of the device 10 .
  • the controller 140 may provide or process appropriate information or functions to the manager terminal by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 130 . .
  • controller 140 may control at least some of the components discussed together with reference to FIG. 1 in order to drive an application program stored in the memory 130 . Furthermore, in order to drive the application program, the controller 140 may operate at least two or more of the components included in the device 20 in combination with each other.
  • the controller 140 of the device 10 acquires a first image that is a retina image of the user through the acquirer 110 .
  • the first image includes an image or a moving image including retinal information of the user.
  • the first image may be an image acquired through wide-angle fundus imaging.
  • the first image refers to an image obtained by continuously photographing the user's fundus after injecting a contrast agent (fluorescein) into the eye of a specific user.
  • a contrast agent fluorescein
  • the non-perfusion region refers to a region in which blood flow in the retina is reduced.
  • the non-perfused region may have a relatively lower brightness than other regions in which blood flow is normal.
  • the controller 140 inputs the acquired first image to a first model based on deep learning to detect a non-perfusion region in the first image.
  • a retinal region is detected in the first image. Then, the image of the first image included in the corresponding retinal region is divided into a plurality of subdivided images. At this time, image segmentation extracts the boundary lines of a plurality of objects and divides the image based on the boundary lines. For this, methods such as Thresholding, Region Growing, Graph Cut, Active Contour Model, etc. .
  • the present invention is not limited thereto.
  • the first deep learning-based model may use methods such as Active Shape Model, Fully Convolutional Networks (FCN), U-net, Deep Lab, and the like.
  • the non-perfusion region may be extracted based on the properties of the segmented image. For example, an average brightness value of pixels in a subdivided image may be calculated, and when the average brightness value is less than a reference value, it may be recognized as a non-perfusion region.
  • the first deep learning model may use a convolutional neural network (CNN, hereinafter referred to as a CNN).
  • CNN convolutional neural network
  • CNN spatially integrates a convolution layer that creates a feature map by applying a plurality of filters to each area of the image and extracts features that are invariant to changes in position or rotation. It may be formed in a structure that alternately repeats the pooling layer several times. Through this, various level features can be extracted from low-level features such as points, lines, and planes to complex and meaningful high-level features.
  • the convolution layer can obtain a feature map by taking a nonlinear activation function on the dot product of a filter and a local receptive field for each patch of the input image.
  • CNNs may have the feature of using filters with sparse connectivity and shared weights. Such a connection structure can reduce the number of parameters to be learned, make learning through the backpropagation algorithm efficient, and consequently improve prediction performance.
  • the integration layer may generate a new feature map by using local information of the feature map obtained from the previous convolutional layer.
  • the newly created feature map by the integration layer is reduced to a smaller size than the original feature map.
  • Representative integration methods include Max Pooling, which selects the maximum value of the corresponding region in the feature map, and the corresponding feature map in the feature map. There may be an average pooling method for obtaining an average value of a region.
  • the feature map of the integrated layer can be less affected by the location of arbitrary structures or patterns present in the input image than the feature map of the previous layer.
  • the integration layer can extract features that are more robust to regional changes such as noise or distortion in the input image or previous feature map, and these features can play an important role in classification performance.
  • Another role of the integration layer is to reflect the features of a wider area as you go up to the upper learning layer in the deep structure. More and more abstract features can be generated that reflect the features of the entire image.
  • the features finally extracted through iteration of the convolutional layer and the integration layer are fully connected to a classification model such as a multi-layer perceptron (MLP) or a support vector machine (SVM). -connected layer) and can be used for classification model training and prediction.
  • MLP multi-layer perceptron
  • SVM support vector machine
  • the controller 140 generates a second image to which a visual effect indicating a non-perfusion region detected in the first image is applied.
  • FIG 3 is an exemplary diagram of a second image to which a visual effect is applied after detecting a non-perfused region according to an embodiment of the present invention.
  • the controller 140 provides a visual effect to the non-perfused region identified using the deep learning-based first model. That is, a visual effect is given to the non-perfused region so that the user can intuitively observe the non-perfused region in the retinal image.
  • the controller 140 may extract a pixel included in the non-perfusion region and change the RGB value of the pixel to provide a visual effect.
  • the controller 140 separates the non-perfusion region from the region other than the detected non-perfusion region such as bounding or sign input. A variety of distinguishable visual effects can be given.
  • the controller 140 outputs the second image generated in step S130 ( S140 ).
  • step S130 the area of the non-perfusion region in the first image may be calculated.
  • step S140 may be to output the second image including information indicating the calculated area of the non-perfusion region.
  • the controller 140 may calculate the number of pixels included in the detected non-perfused region based on the first deep learning-based model, and calculate the area of the non-perfused region using the calculated number of pixels. will be.
  • the controller 140 may output the calculated area of the non-perfusion region together on the second image and provide it to the user.
  • the user will be able to not only identify the non-perfused region in the retinal image, but also detect changes in the non-perfused region.
  • the second image information for each user is accumulated and stored in the memory 130 .
  • each second image will include information on the area of the non-perfusion region calculated whenever the corresponding second image is generated. Through this, the user can observe more intuitively than observing the change of the non-perfused region through a visual effect on the non-perfused region in the second image.
  • FIG. 4 is a flowchart schematically illustrating a method for learning a deep learning-based first model according to an embodiment of the present invention
  • FIG. 6 is a flowchart schematically showing a method for generating a plurality of retinal images according to an embodiment of the present invention It is an exemplary view showing the pre-processing of the retina image.
  • the controller 140 may learn the deep learning-based first model based on a plurality of retinal images through the learning unit 120 .
  • the learning step is to pre-process the plurality of retinal images to generate learning data, and to train the deep learning-based first model based on the learning data.
  • step S510 may further include preprocessing a plurality of retinal images to generate the learning data ( S511 ).
  • a data preparation process of processing raw data, which is a plurality of retinal images is performed.
  • the meaning of data for each of a plurality of retinal images, which is raw data, is found, the data structure is normalized, and as a result, a training data set is prepared.
  • a pre-processing operation of extracting non-perfused regions in each retinal image is performed.
  • the above-described step S511 sets each retinal region in the plurality of retinal images (S511_a), and divides the image of each retinal region based on the properties of each of the plurality of retinal images. (S511_b).
  • the learning data may be generated by applying the visual effect to at least one image corresponding to the non-perfusion region among the divided images (S511_c).
  • a retinal area is set for each of a plurality of retinal images (S511_a). Specifically, a region of interest in each image is designated prior to image segmentation.
  • the controller 140 may receive an ROI for each retinal image from a user through an input unit (not shown). In this case, an interface for inputting a region of interest for retinal projection to the user may be provided.
  • the retinal region 401 corresponding to the ROI is set in the image including the retina.
  • the controller 140 performs image segmentation on each retinal image (S511_b).
  • the controller 140 searches for a boundary line with respect to a plurality of objects within a retina region set in each retina image, and divides an image of the retina region based on the boundary line (Image Segmentation).
  • image segmentation may be performed based on the properties of the retinal image, and in this case, the properties may include at least one of homogeneity, signal strength, and entropy of each of the plurality of retinal images. .
  • a brightness value of each pixel in the image is calculated, and a first value that is an absolute value of a difference between the brightness value of each pixel and at least one other adjacent pixel is calculated.
  • the pixel related to the difference between the contrast values is determined as a non-perfusion region, and a plurality of pixels related to the first value are determined. Segment the image, based on the pixel boundaries. Through this, the image for the retinal region may be segmented.
  • the intensity of the signal of each pixel for example, the brightness value is calculated, and the brightness value or the absolute value of the difference between the brightness value and at least one other pixel adjacent to each pixel is the same as the above-mentioned homogeneity determination, Calculate the second value.
  • the image is divided by determining the pixel as a non-perfusion region based on the boundary between the pixel and the at least one other pixel.
  • the image may be divided by calculating the entropy of each pixel and comparing the calculated entropy with a preset third value.
  • the controller 140 calculates an average value of pixel values of each divided image, and the average value is equal to or less than a preset reference value. can be judged to correspond to the non-perfusion region.
  • the controller 140 generates the learning data by applying the visual effect to at least one image corresponding to a non-perfusion region among a plurality of divided images.
  • the method of providing the visual effect as described above, it will be omitted.
  • FIG. 8 is an exemplary diagram illustrating preprocessing using a contrast control or an isomorphic filter of a retina image according to an embodiment of the present invention.
  • the preprocessing of the plurality of retinal images may be preprocessing based on at least one of adjusting contrast of the plurality of retinal images and passing through a homomorphic filter.
  • a pre-processing operation is performed so that the non-perfused region in the retinal image can be more clearly identified by adjusting the contrast of each retinal image.
  • the illumination component and the transmission component in each retinal image are extracted and then separated.
  • the image density of the image is compressed and the contrast is increased so that the non-perfused region in the retinal image can be more clearly identified.
  • 9 is a flowchart schematically illustrating a method for learning a deep learning-based first model based on the inspection result of the inspector 20 for the learning data, according to an embodiment of the present invention.
  • 10 is an exemplary diagram illustrating learning of the deep learning-based first model based on the inspection result of the inspector 20 for the learning data, according to an embodiment of the present invention.
  • step S510 allocates learning data to the inspector 20 to request inspection (S512), and receives the inspection result from the inspector 20 ( S513), based on the inspection result, it is possible to train the deep learning-based first model.
  • the plurality of inspectors 20 performing the inspection process may include a doctor, a pharmacist, or an expert with medical expertise, but is not limited thereto.
  • the control unit 140 through the communication unit (not shown) of the acquisition unit 110, after allocating the learning data to the inspector 20, and requests the inspection to be performed (S510). Inspection is performed, the above-mentioned pre-processing tasks, setting the retinal area (S511_a), segmenting the image of the retinal area (S511_b), and giving a visual effect to the image corresponding to the non-perfused area among the divided images (S511_c) overall inspection You may be asked to perform. Preferably, it will be checked whether the image corresponding to the non-perfusion region is accurately extracted from the divided images performed by the controller 140 after the step S511_b and whether the visual effect is accurately applied.
  • the control unit 140 receives the inspection result from the inspector 20 through the acquisition unit 110 ( S513 ).
  • the contents of the learning data 420 assigned to the inspector 20 and the inspection result 430 received from the inspector 20 are different. It can be seen that, in addition to the non-perfusion region extracted by the learning unit 120 and given a visual effect, more non-perfusion regions were extracted by the inspector 20 having specialized knowledge. Through this verification process, the present invention generates more sophisticated and accurate source data used to train the deep learning-based first model.
  • the control unit 140 trains the deep learning-based first model through the learning unit 120 ( S514 ).
  • the process of learning the deep learning-based first model based on the inspection result 430 has been described above, and a detailed description thereof will be omitted.
  • the above-described inspection process may be made through a crowdsourcing system based on a plurality of learning data and a plurality of inspectors 20, but is not limited thereto.
  • the method for automatically detecting the non-perfusion region described above may further include determining the location of the new blood vessel based on the non-perfusion region detected in the first image.
  • the second image provided to the user to which the visual effect for the non-perfusion region is applied may be generated by further adding the visual effect indicating the new blood vessel.
  • the controller 140 identifies the boundary between the identified non-perfusion region and the perfused region, and determines the location of a new blood vessel generated at the identified boundary. And, by providing a visual effect for identifying the new blood vessel, the user can identify the new blood vessel as well as the non-perfusion region.
  • the deep learning-based automatic detection method of the non-perfusion region according to an embodiment of the present invention described above may be implemented as a program (or application) and stored in a medium in order to be executed in combination with a server that is hardware.
  • the above-described program is C, C++, JAVA, machine language, etc. that a processor (CPU) of the computer can read through a device interface of the computer in order for the computer to read the program and execute the methods implemented as a program
  • It may include code (Code) coded in the computer language of Such code may include functional code related to a function defining functions necessary for executing the methods, etc. can do.
  • the code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer should be referenced. have.
  • the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.
  • the storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device.
  • examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user.
  • the medium may be distributed in a computer system connected by a network, and computer-readable codes may be stored in a distributed manner.
  • a software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.
  • RAM random access memory
  • ROM read only memory
  • EPROM erasable programmable ROM
  • EEPROM electrically erasable programmable ROM
  • flash memory hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present invention pertains.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Ophthalmology & Optometry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Hematology (AREA)
  • Vascular Medicine (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 딥러닝 기반의 비관류 영역의 자동 탐지 장치 및 방법을 제공한다. 상기 방법은, 서버에 의해 수행되는 망막 영상 내의 비관류 영역의 자동 탐지 방법에 있어서, 상기 망막 영상인 제1 영상을 획득하는 단계, 딥러닝 기반의 제1 모델을 기반으로 상기 제1 영상 내의 비관류 영역을 탐지하는 단계, 상기 제1 영상 내에서 상기 탐지된 비관류 영역을 나타내는 시각 효과를 부여한 제2 영상을 생성하는 단계 및 상기 생성된 제2 영상을 출력하는 단계를 포함한다.

Description

딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법
본 발명은 딥러닝 기반의 비관류 영역의 자동 탐지 시스템 및 방법에 관한 것이다.
당뇨 망막병증은 1형 혹은 2형 당뇨병의 합병증 중 가장 빈번하게 발생되는 합병증에 해당한다. 뿐만 아니라 당뇨 망막병증의 경우 전 세계적으로 성인 실명의 제1 원인에 해당할 정도로 인간에게는 치명적인 영향을 미친다. 당뇨 망막병증의 진행에는 망막 모세혈관 비관류 영역의 형성과 확장이 많은 영향을 미친다. 망막 모세혈관의 이상이 시작되면서 당뇨망막병증이 시작되고, 모세혈관의 끝 부분이 탈락(drop-out)되면서 비관류 영역이 발생한다. 이때 비관류 영역이 점차 확장하면서 신생 혈관 형성(neovascularization)이 일어난다. 그리고 당뇨 망막병증은 비증식성에서 증식성으로 진행하게 되는데, 이렇게 진행한 당뇨 망막병증은 유리체 및 망막 출혈, 견인성 망막박리(tractional retinal detachment, TRD) 등이 합병되면서 치료 하지 않을 시 결국 실명에 이르게 된다.
이처럼 망막 모세혈관 내 비관류 영역은 당뇨 망막병증의 병리의 비교적 초기 단계에서부터 실명에 이르기까지 광범위하게 병태 생리에 관여한다.
망막 내 비관류 영역은 안저혈관조영술로 관찰이 가능하다. 최근 5년간 광각 안저촬영 기술의 발달로, 현재 상용화된 초광각 안저 카메라로 전체 망막의 80%이상이 관찰 가능하다. 따라서 안저혈관조영술을 이용하여 종전에 발견하지 못했던 망막의 주변부의 변화를 감지할 수 있다. 즉 초광각 안저 형광 혈관 조영술에서의 비관류 영역을 정확하게 파악하는 것이, 환자의 현재 상태 판단하고, 예후를 예측하는데 중요한 역할을 한다. 이는 환자의 추후 경과 관찰 주기 조절이나 치료 방법, 내과 협진 등에 직결될 수 있다. 하지만 현재까지 초광각 안저 형광 혈관조영술에서 자동으로 비관류 영역을 탐지해 주는 시스템은 없다.
기계학습(Machine Learning)은 인공 지능의 한 분야로서, 이미지와 같은 데이터의 특징(feature)과 패턴을 식별 할 수 있도록 컴퓨터를 학습 또는 훈련시키는 알고리즘 혹은 프로그램 전반을 일컫는다. 이와 같은 기계학습은 최근 다양한 산업현장에 적용되고 있다. 특히, 의료현장에서는 환자의 검사과정에서 얻은 데이터를 바탕으로 하는 기계학습이 적용될 수 있다. 이를 이용하면 초광각 안저 형광 혈관조영술의 비관류 영역의 탐지를 학습시키고 이를 실제 진료에 적용 할 수 있다.
상술한 바와 같은 문제점을 해결하기 위한 본 발명은 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법을 제공하는 것이다.
다만 본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 서버에 의해 수행되는 망막 영상 내의 비관류 영역의 자동 탐지 방법에 있어서, 상기 망막 영상인 제1 영상을 획득하는 단계, 딥러닝 기반의 제1 모델을 기반으로 상기 제1 영상 내의 비관류 영역을 탐지하는 단계, 상기 제1 영상 내에서 상기 탐지된 비관류 영역을 나타내는 시각 효과를 부여한 제2 영상을 생성하는 단계 및 상기 생성된 제2 영상을 출력하는 단계를 포함한다.
이때, 상기 생성 단계는, 상기 제1 영상 내의 비관류 영역의 넓이를 산출하는 단계를 더 포함하고, 상기 출력 단계는, 상기 산출된 비관류 영역의 넓이를 나타내는 정보를 포함한 상기 제2 영상을 출력하는 것일 수 있다.
또한, 상기 비관류 영역의 자동 탐지 방법은 복수의 망막 영상을 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시키는 단계를 더 포함하고, 상기 학습 단계는, 상기 복수의 망막 영상을 전처리하여 학습데이터를 생성하고, 상기 학습데이터를 기반으로 상기 딥러닝 기반의 제1 모델을 학습시킬 수 있다.
이때, 상기 학습 단계는 상기 복수의 망막 영상을 전처리하여, 상기 학습데이터를 생성하는 단계를 더 포함하고, 상기 학습데이터 생성 단계는, 상기 복수의 망막 영상 내의 각각의 망막 영역을 설정하는 단계, 상기 복수의 망막 영상 각각의 속성에 기반하여, 상기 각각의 망막 영역의 이미지를 분할하는 단계 및 상기 분할된 이미지 중 상기 비관류 영역에 해당하는 적어도 하나의 이미지에 상기 시각 효과를 부여하여 상기 학습데이터를 생성하는 단계를 포함할 수 있다.
또한, 상기 비관류 영역의 자동 탐지 방법은 상기 학습데이터를 검수자에게 배정하여 검수 수행을 요청하는 단계, 상기 검수자로부터 검수 결과를 입력받는 단계 및 상기 검수 결과를 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시키는 단계를 더 포함할 수 있다.
또한, 상기 복수의 망막 영상을 전처리하는 것은, 상기 복수의 망막 영상의 Contrast 조절 및 Homomorphic 필터 통과를 기반으로 전처리할 수 있다.
또한, 상기 속성은, 상기 복수의 망막 영상 각각의 균질성, 신호세기 및 엔트로피 중 적어도 하나를 포함할 수 있다.
또한, 상기 제1 영상 내에서 탐지된 비관류 영역을 기초로 신생 혈관의 위치를 판단하는 단계를 더 포함하고, 상기 제2 영상은, 상기 신생 혈관을 나타내는 시각 효과가 더 부여되어 생성될 수 있다.
상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 딥러닝 기반의 비관류 영역의 자동 탐지 장치는, 망막 모세혈관에 관한 제1 영상을 입력받는 획득부; 및 상기 제1 영상을 기 학습된 딥러닝 기반의 제1 모델에 입력하여 상기 제1 영상 내 비관류 영역을 탐지하고, 상기 탐지된 비관류 영역을 식별할 수 있도록 제1 영상 내 상기 비관류 영역을 이미지 처리하여 제2 영상을 생성하고, 상기 제1 영상 및 상기 제2 영상을 제공하는 제어부;를 포함할 수 있다.
이때, 상기 제어부는, 상기 제1 영상 내의 비관류 영역의 넓이를 산출하고, 상기 산출된 비관류 영역의 넓이를 나타내는 정보를 포함한 상기 제2 영상을 출력할 수 있다.
또한, 비관류 영역의 자동 탐지 장치는 복수의 영상 데이터를 전처리하여 학습데이터를 생성하고, 상기 학습데이터를 기반으로 상기 딥러닝 기반의 제1 모델을 학습시키는 학습부를 더 포함할 수 있다.
이때, 상기 학습부는, 상기 복수의 망막 영상을 전처리하여, 상기 학습데이터를 생성하고, 상기 학습부는, 상기 학습데이터를 생성 시에, 상기 복수의 망막 영상 내의 각각의 망막 영역을 설정하고, 상기 복수의 망막 영상 각각의 속성에 기반하여, 상기 각각의 망막 영역의 이미지를 분할하고, 상기 분할된 이미지 중 상기 비관류 영역에 해당하는 적어도 하나의 이미지에 상기 시각 효과를 부여하여 상기 학습데이터를 생성하고, 상기 학습부는, 상기 복수의 망막 영상을 전처리 시에, 상기 복수의 망막 영상의 Contrast 조절 및 Homomorphic 필터 통과 중 적어도 하나를 기반으로 전처리하며, 상기 속성은, 상기 복수의 망막 영상 각각의 균질성, 신호세기 및 엔트로피 중 적어도 하나를 포함할 수 있다.
또한, 상기 제어부는, 상기 학습데이터를 검수자에게 배정하여 검수 수행을 요청하고, 상기 검수자로부터 검수 결과를 입력받고, 상기 학습부는, 상기 검수 결과를 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시킬 수 있다.
또한, 상기 제어부는, 상기 제1 영상 데이터 내에서 탐지된 비관류 영역을 기초로 신생 혈관의 위치를 판단하고, 상기 제2 영상은, 상기 신생 혈관을 나타내는 시각 효과가 더 부여되어 생성될 수 있다.
또한, 상술한 과제를 해결하기 위한 본 발명의 다른 면에 따른 딥러닝 기반의 비관류 영역의 자동 탐지 방법을 수행하는 컴퓨터 프로그램은, 저장 매체에 저장될 수 있다.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.
상기와 같은 본 발명에 따르면, 망막 영상 내 비관류 영역을 자동으로 탐지하여 당뇨 망막병증의 진단 및 치료에 도움을 줌으로써 당뇨병에 의한 성인의 실명 위험을 사전에 예방하고 치료할 수 있는 효과가 있다.
특히, 비관류 영역의 넓이를 산출하고, 해당 정보를 제공함으로써 비관류 영역의 변화를 직관적으로 판단할 수 있도록 하며, 과응고술 등의 치료에 가이드라인을 제공하여 당뇨 망막병증의 진료 향상에 기여하는 효과를 제공한다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 딥러닝 기반의 망막 영상 내의 비관류 영역의 자동 탐지 장치에 대한 개략적인 구성도이다.
도 2는 본 발명의 일 실시예에 따른 딥러닝 기반의 망막 영상 내의 비관류 영역의 자동 탐지 방법에 대한 개략적인 순서도이다.
도 3은 본 발명의 일 실시예에 따른, 비관류 영역을 탐지한 후 시각 효과를 부여한 제2 영상에 대한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 딥러닝 기반의 제1 모델을 학습하는 방법을 개략적으로 나타낸 순서도이다.
도 5는 본 발명의 일 실시예에 따른 복수의 망막 영상을 전처리하여 학습 데이터를 생성하는 방법을 개략적으로 나타낸 순서도이다.
도 6은 본 발명의 일 실시예에 따른 복수의 망막 영상을 전처리하는 구체적인 방법을 개략적으로 나타낸 순서도이다.
도 7은 본 발명의 일 실시예에 따른 복수의 망막 영상을 전처리하는 하는 것을 나타낸 예시도이다.
도 8은 본 발명의 일 실시예에 따른, 망막 영상의 명암 대비 조절 또는 동형 필터를 이용하여 전처리하는 것을 나타내는 예시도이다.
도 9은 본 발명의 일 실시예에 따른, 학습데이터에 대한 검수자의 검수 결과를 기반으로 딥러닝 기반의 제1 모델을 학습 시키는 방법을 개략적으로 나타낸 순서도이다.
도 10은 본 발명의 일 실시예에 따른, 학습데이터에 대한 검수자의 검수 결과를 기반으로 딥러닝 기반의 제1 모델을 학습 시키는 것을 나타낸 예시도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
설명에 앞서 본 명세서에서 사용하는 용어의 의미를 간략히 설명한다. 그렇지만 용어의 설명은 본 명세서의 이해를 돕기 위한 것이므로, 명시적으로 본 발명을 한정하는 사항으로 기재하지 않은 경우에 본 발명의 기술적 사상을 한정하는 의미로 사용하는 것이 아님을 주의해야 한다.
또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 엘리먼트를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 엘리먼트들, 객체지향 소프트웨어 엘리먼트들, 클래스 엘리먼트들 및 태스크 엘리먼트들과 같은 엘리먼트들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 엘리먼트들과 "부"들 안에서 제공되는 기능은 더 작은 수의 엘리먼트들 및 "부"들로 결합되거나 추가적인 엘리먼트들과 "부"들로 더 분리될 수 있다.
또한, 본 명세서에서 모든 “부”는 적어도 하나의 프로세서에 의해 제어될 수 있으며 본 개시의 “부”가 수행하는 동작을 적어도 하나의 프로세서가 수행할 수도 있다.
본 명세서의 실시예들은 기능 또는 기능을 수행하는 블록의 관점에서 설명될 수 있다. 본 개시의 ‘부’ 또는 ‘모듈’ 등으로 지칭될 수 있는 블록은 논리 게이트, 집적 회로, 마이크로 프로세서, 마이크로 컨트롤러, 메모리, 수동 전자 부품, 능동 전자 부품, 광학 컴포넌트, 하드와이어드 회로(hardwired circuits) 등과 같은 아날로그 또는 디지털 회로에 의해 물리적으로 구현되고, 선택적으로 펌웨어 및 소프트웨어에 의해 구동될 수 있다.
본 명세서의 실시예는 적어도 하나의 하드웨어 디바이스 상에서 실행되는 적어도 하나의 소프트웨어 프로그램을 사용하여 구현될 수 있고 엘리먼트를 제어하기 위해 네트워크 관리 기능을 수행할 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 딥러닝 기반의 망막 영상 내의 비관류 영역의 자동 탐지 장치에 대한 개략적인 구성도이고, 도 2는 본 발명의 일 실시예에 따른 딥러닝 기반의 망막 영상 내의 비관류 영역의 자동 탐지 방법에 대한 개략적인 순서도이다.
도 1을 참조하면, 딥러닝 기반의 망막 영상 내의 비관류 영역의 자동 탐지 장치(10)는 획득부(110), 학습부(120), 메모리(130) 및 제어부(140)를 포함한다.
획득부(110)는 사용자에 관한 적어도 하나의 망막 영상을 수집한다. 이를 위해 획득부(110)는 후술한 안저형광조영장치와 연동하여 사용자의 망막 영상을 획득할 수도 있으며, 또는 안저형광조영모듈을 포함하여 직접 사용자의 망막 영상을 획득할 수도 있다. 획득부(110)는 상술한 한편 도면에 명확히 도시되지는 않았으나, 획득부(110)는 통신부(미도시)를 통해 의료 서비스를 제공하는 기관, 기업 등으로부터 사용자에 관한 망막 영상을 수신할 수도 있다. 이를 위해 획득부(110)는 통시부(미도시)를 더 포함할 수 있다. 통신부는 장치(10)와 사용자 단말기(미도시) 또는 서버(미도시) 사이의 무선통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 상기 통신부(미도시)는 장치(10)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 한편, 통신부(미도시)는 장치(10) 및 사용자 단말기(미도시)간의 다양한 정보를 송수신할 수 있다. 획득부(110)는 통신부를 통해 다양한 형태의 통신망을 이용할 수 있으며, 예컨대, WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신방식 또는 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coax), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신방식이 이용될 수 있다.
학습부(120)는 학습 데이터를 생성하여, 딥러닝 기반의 제1 모델을 사전 학습시킨다. 이에 대해서는 본원발명의 일 실시예에 따른, 장치(10)의 전처리 작업 수행과 관련하여 자세히 후술하도록 한다.
메모리(130)에는, 장치(10)의 다양한 기능을 지원하는 데이터를 저장할 수 있다. 메모리(130) 장치(10)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 장치(10)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 또한 망막 영상 내에서 비관류 영역을 자동으로 탐지하는 딥러닝 기반의 제1 모델에 관한 응용 프로그램 또는 애플리케이션을 저장한다. 이러한 응용 프로그램 중 적어도 일부는, 장치(10)의 기본적인 기능을 위하여 존재할 수 있다. 한편, 응용 프로그램은, 메모리(130)에 저장되고, 장치(10) 상에 설치되어, 제어부(140)에 의하여 상기 장치(10)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(140) 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 장치(10)의 전반적인 동작을 제어할 수 있다. 제어부(140)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(130)에 저장된 응용 프로그램을 구동함으로써, 관리자 단말기에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(140)는 메모리(130)에 저장된 응용 프로그램을 구동하기 위하여, 도 1에서 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(140)는 상기 응용 프로그램의 구동을 위하여, 장치(20)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작 시킬 수 있다.
도 2를 참조하면, 장치(10)의 제어부(140)는 획득부(110)를 통해 사용자의 망막 영상인 제1 영상을 획득한다. 이때, 제1 영상은, 사용자의 망막 정보를 포함하는 이미지 또는 동영상을 포함한다.
한편, 제1 영상은 바람직하게는 광각 안저 촬영을 통해 획득한 영상일 수 있다. 구체적으로, 제1 영상은 특정 사용자의 안구 내부에 조영제(플루오레신)를 주사한 후 사용자의 안저 부분을 연속적으로 촬영하여 획득한 이미지를 의미한다.
비관류 영역은, 망막 내 혈류량이 감소한 영역을 말한다. 광각 안저 촬영 시 안구 내부에 조영제를 주사한 후 안저 부분에 대한 이미지를 촬영하기 때문에, 이때 비관류 영역은 혈류량이 정상인 다른 영역보다 상대적으로 명도가 낮게 촬영될 수 있다.
한편, 제어부(140)는 획득한 제1 영상을 딥러닝 기반의 제1 모델에 입력하여, 제1 영상 내의 비관류 영역을 탐지한다.
보다 구체적으로, 제1 영상 내에서 망막 영역을 탐지한다. 그리고 해당 망막 영역에 포함되는 제1 영상의 이미지를 복수의 세분화된 이미지로 분할한다. 이때, 이미지 분할(Image Segmentation)은 복수의 객체의 경계선을 추출하고, 상기 경계선을 기준으로 이미지를 분할하게 되는데, 이를 위해 Thresholding, Region Growing, Graph Cut, Active Contour Model 등의 방법에 의할 수 있다. 그러나 이에 제한되는 것은 아니다. 한편, 딥러닝 기반의 제1 모델은, Active Shape Model, FCN(Fully Convolutional Networks), U-net, Deep Lab 등의 방법을 사용할 수 있다.
한편, 제1 영상을 복수의 세분화된 이미지로 분할하면, 복수의 세분화된 이미지 중 비관류 영역에 해당하는 적어도 하나 이상의 이미지를 식별한다. 비관류 영역은 세분화된 이미지의 속성에 기반하여 추출될 수 있다. 예를 들어, 세분화된 이미지 내 픽셀의 평균 명도값을 산출하고, 상기 평균 명도값이 기준값 미만인 경우 비관류 영역에 해당하는 것으로 인식할 수 있을 것이다.
한편 본 발명의 일 실시예로, 딥러닝 제1 모델은 컨볼루션 뉴럴 네트워크(CNN, Convolutional Neural Network, 이하 CNN이라 명칭함)를 사용할 수 있다.
CNN은 영상의 각 영역에 대해 복수의 필터를 적용하여 특징 지도(Feature Map)를 만들어 내는 컨볼루션 층(Convolution Layer)과 특징 지도를 공간적으로 통합함으로써 위치나 회전의 변화에 불변하는 특징을 추출할 수 있도록 하는 통합층(Pooling Layer)을 번갈아 수차례 반복하는 구조로 형성될 수 있다. 이를 통해, 점, 선, 면 등의 낮은 수준의 특징에서부터 복잡하고 의미 있는 높은 수준의 특징까지 다양한 수준의 특징을 추출해낼 수 있다.
컨볼루션 층은 입력 영상의 각 패치에 대하여 필터와 국지 수용장(Local Receptive Field)의 내적에 비선형 활성 함수(Activation Function)를 취함으로써 특징지도(Feature Map)를 구할 수 있다. 다른 네트워크 구조와 비교하여, CNN은 희소한 연결성(Sparse Connectivity)과 공유된 가중치(Shared Weights)를 가진 필터를 사용하는 특징을 가질 수 있다. 이러한 연결구조는 학습할 모수의 개수를 줄여주고, 역전파 알고리즘을 통한 학습을 효율적으로 만들어 결과적으로 예측 성능을 향상시킬 수 있다.
통합 층(Pooling Layer 또는 Sub-sampling Layer)은 이전 컨볼루션 층에서 구해진 특징 지도의 지역 정보를 활용하여 새로운 특징 지도를 생성할 수 있다. 일반적으로 통합 층에 의해 새로 생성된 특징지도는 원래의 특징 지도보다 작은 크기로 줄어드는데, 대표적인 통합 방법으로는 특징 지도 내 해당 영역의 최대값을 선택하는 최대 통합(Max Pooling)과 특징 지도 내 해당 영역의 평균값을 구하는 평균 통합(Average Pooling) 등이 있을 수 있다. 통합 층의 특징지도는 일반적으로 이전 층의 특징 지도보다 입력 영상에 존재하는 임의의 구조나 패턴의 위치에 영향을 적게 받을 수 있다. 즉, 통합층은 입력 영상 혹은 이전 특징 지도에서의 노이즈나 왜곡과 같은 지역적 변화에 보다 강인한 특징을 추출할 수 있게 되고, 이러한 특징은 분류 성능에 중요한 역할을 할 수 있다. 또 다른 통합 층의 역할은, 깊은 구조상에서 상위의 학습 층으로 올라갈수록 더 넓은 영역의 특징을 반영할 수 있게 하는 것으로서, 특징 추출 층이 쌓이면서, 하위 층에서는 지역적인 특징을 반영하고 상위 층으로 올라 갈수록 보다 추상적인 전체 영상의 특징을 반영하는 특징 생성할 수 있다.
이와 같이, 컨볼루션 층과 통합 층의 반복을 통해 최종적으로 추출된 특징은 다중 신경망(MLP: Multi-Layer Perceptron)이나 서포트 벡터 머신(SVM: Support Vector Machine)과 같은 분류 모델이 완전 연결 층(Fully-connected Layer)의 형태로 결합되어 분류 모델 학습 및 예측에 사용될 수 있다.
다시 도 2를 참조하면, 제어부(140)는 제1 영상 내에서 탐지된 비관류 영역을 나타내는 시각 효과를 부여한 제2 영상을 생성한다.
도 3은 본 발명의 일 실시예에 따른, 비관류 영역을 탐지한 후 시각 효과를 부여한 제2 영상에 대한 예시도이다.
구체적으로, 도 3을 참조하면, 제어부(140)는, 딥러닝 기반의 제1 모델을 이용하여 식별된 비관류 영역에 대해 시각 효과를 부여한다. 즉, 사용자의 망막 영상 내 비관류 영역에 대한 직관적인 관찰이 가능하도록, 비관류 영역에 대한 시각효과를 부여하는 것이다. 예를 들어, 제어부(140)는 비관류 영역에 포함되는 픽셀을 추출하고, 해당 픽셀에 대한 RGB 값을 변경하여, 시각효과를 부여할 수도 있다.
한편, 도 3을 참조하면, 비관류 영역이 구별되도록 색상을 변경한 것으로 설명되어 있지만, 제어부(140)는 비관류 영역을 바운딩(Bounding), 부호 입력 등과 같이 탐지된 비관류 영역 이외의 영역과 구별이 가능한 다양한 시각 효과를 부여할 수 있다.
다시 도 2를 참조하면, 제어부(140)는, S130 단계에서 생성된 제2 영상을 출력한다(S140).
한편, 본 발명의 일 실시예로, S130 단계는, 제1 영상 내의 비관류 영역의 넓이를 산출할 수 있다. 이때, S140 단계는 산출된 비관류 영역의 넓이를 나타내는 정보를 포함한 상기 제2 영상을 출력하는 것일 수 있다.
구체적으로, 제어부(140)는 딥러닝 기반의 제1 모델을 기반으로 탐지된 비관류 영역에 포함되는 픽셀 수를 산출하고, 상기 산출된 픽셀 수를 이용하여 비관류 영역의 넓이를 산출할 수 있을 것이다.
도 3을 참조하면, 제어부(140)는 산출된 비관류 영역의 넓이를 제2 영상에 함께 출력하여 사용자에게 제공할 수 있을 것이다. 이를 통해 사용자는 망막 영상 내의 비관류 영역을 식별할 뿐만 아니라, 비관류 영역의 변화에 대해서도 감지할 수 있을 것이다. 예를 들어, 메모리(130)에는 각각의 사용자에 대한 제2 영상 정보가 누적되어 저장된다. 그리고 상술한 바와 같이, 각각의 제2 영상에는 해당 제2 영상이 생성될 때마다 산출된 비관류 영역의 넓이 정보가 포함될 것이다. 이를 통해, 사용자는 제2 영상 내의 비관류 영역에 대한 시각 효과를 통한 비관류 영역의 변화를 관찰하는 것보다도 보다 더 직관적인 관찰이 가능하다.
도 4는 본 발명의 일 실시예에 따른 딥러닝 기반의 제1 모델을 학습하는 방법을 개략적으로 나타낸 순서도이고, 도 5는 본 발명의 일 실시예에 따른 복수의 망막 영상을 전처리하여 학습 데이터를 생성하는 방법을 개략적으로 나타낸 순서도이고, 도 6은 본 발명의 일 실시예에 따른 복수의 망막 영상을 전처리하는 구체적인 방법을 개략적으로 나타낸 순서도이고, 도 7은 본 발명의 일 실시예에 따른 복수의 망막 영상을 전처리하는 하는 것을 나타낸 예시도이다.
한편, 도 4를 참조하면, 제어부(140)는 학습부(120)를 통해 복수의 망막 영상을 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시킬 수 있다. 이때, 상기 학습 단계는, 상기 복수의 망막 영상을 전처리하여 학습데이터를 생성하고, 상기 학습데이터를 기반으로 상기 딥러닝 기반의 제1 모델을 학습시키는 것이다.
도 5를 참조하면, 본 발명의 일 실시예로, S510 단계는, 복수의 망막 영상을 전처리하여, 상기 학습데이터를 생성하는 단계(S511)를 더 포함할 수 있다.
즉, 딥러닝 기반의 제1 모델을 사전 학습하는데 이용되는, 학습 데이터의 생성을 위해, 복수의 망막 영상인 Raw Data를 가공하는 데이터 전처리 과정(Data Preparation)을 수행한다. 원시 데이터인 복수의 망막 영상 각각에 대한 데이터의 의미를 찾고, 데이터 구조를 정상화하여, 결과적으로 학습데이터 셋을 준비한다. 보다 구체적으로는, 비관류 영역을 자동으로 탐지하는 딥러닝 기반의 제1 모델에 적합한 학습 데이터 생성을 위하여, 각각의 망막 영상 내 비관류 영역을 추출하는 전처리 작업을 수행한다.
도 6을 참조하면, 상술한 S511 단계는, 상기 복수의 망막 영상 내의 각각의 망막 영역을 설정하고(S511_a), 복수의 망막 영상 각각의 속성에 기반하여, 상기 각각의 망막 영역의 이미지를 분할한다(S511_b). 그리고 분할된 이미지 중 비관류 영역에 해당하는 적어도 하나의 이미지에 상기 시각 효과를 부여하여 상기 학습데이터를 생성할 수 있다(S511_c).
먼저 복수의 망막 영상 각각에 대해 망막 영역을 설정한다(S511_a). 구체적으로, 이미지 분할(Image Segmentation)에 앞서 각각의 영상에서의 관심 영역을 지정하는 것이다. 이를 위해, 제어부(140)는 도면에 명확히 도시되지는 않았으나 입력부(미도시)를 통해 사용자로부터 각각의 망막 영상에 대한 관심 영역을 입력 받을 수 있을 것이다. 이때, 사용자에게 망막 영사에 대한 관심 영역을 입력할 수 있는 인터페이스를 제공할 수도 있을 것이다.
도 7을 참조하면, 망막을 포함하는 영상 내에 관심 영역에 해당하는 망막 영역(401)이 설정된 것을 알 수 있다.
한편, 망막 영역을 설정한 후 제어부(140)는 각각의 망막 영상에 대한 이미지 분할을 수행한다(S511_b).
구체적으로 제어부(140)는 각각의 망막 영상에서 설정된 망막 영역 내 복수의 오브젝트에 관한 경계선을 탐색하고, 경계선을 기초로 망막 영역에 대한 이미지를 분할(Image Segmentation)한다.
이때, 본 발명의 일 실시예로, 이미지 분할은 망막 영상의 속성에 기반하여 수행될 수 있는데, 이때, 속성은 상기 복수의 망막 영상 각각의 균질성, 신호세기 및 엔트로피 중 적어도 하나를 포함할 수 있다.
보다 구체적으로, 균질성을 판단하기 위하여 이미지 내 각각의 픽셀의 명암값을 산출하고, 각각의 픽셀과 인접한 적어도 하나의 다른 픽셀과의 명암값을 차이의 절대값인 제1 값을 산출한다. 이렇게 산출된 명암값의 차이를 기초로, 상기 명암값의 차이가 기 설정된 제1 기준값 이하이면, 상기 명암값의 차이와 관련된 해당 픽셀을 비관류 영역으로 판단하고, 상기 제1 값과 관련된 복수의 픽셀의 경계를 기초로하여, 이미지를 분할한다. 이를 통해, 망막 영역에 대한 이미지를 분할할 수 있을 것이다.
또한, 각각의 픽셀의 신호의 세기, 예를 들어 밝기 값을 산출하고, 상기 밝기 값 또는 상술한 균질성 판단과 마찬가지로 각각의 픽셀과 인접한 적어도 하나의 다른 픽셀과의 밝기 값의 차이의 절대값인, 제2 값을 산출한다. 이때, 밝기 값 또는 제2 값이 기 설정된 제2 기준값 이하이면, 해당 픽셀과 상기 적어도 하나의 다른 픽셀과의 경계를 기초로하여, 해당 픽셀을 비관류 영역으로 판단하여 이미지를 분할한다.
또한, 상술한 균질성, 신호의 세기 이외에도 각각의 픽셀의 엔트로피를 산출하고, 상기 산출된 각각의 엔트로피와 기 설정된 제3 값을 비교하여 이미지를 분할할 수도 있을 것이다.
또한 예를 들어, 제어부(140)는 하나의 망막 영상에 대해 복수의 객체로 이미지 분할한 경우, 분할된 각각의 이미지의 픽셀 값의 평균 값을 산출하고, 상기 평균 값이 기 설정된 기준 값 이하인 이미지에 대하여 비관류 영역에 해당하는 것으로 판단할 수 있을 것이다.
한편 도 6을 참조하면, 제어부(140)는 분할된 복수의 이미지 중 비관류 영역에 해당하는 적어도 하나의 이미지에 상기 시각 효과를 부여하여 상기 학습데이터를 생성한다. 시각 효과를 부여하는 방법에 대해서는, 상술한 바 생략하도록 한다.
도 8은 본 발명의 일 실시예에 따른, 망막 영상의 명암 대비 조절 또는 동형 필터를 이용하여 전처리하는 것을 나타내는 예시도이다.
한편, 본 발명의 일 실시예로, 상기 복수의 망막 영상을 전처리하는 것은, 상기 복수의 망막 영상의 Contrast 조절 및 동형(Homomorphic) 필터 통과 중 적어도 하나를 기반으로 전처리하는 것일 수 있다.
구체적으로, 각각의 망막 영상의 명암 대비 조절을 통해, 망막 영상 내 비관류 영역이 보다 뚜렷하게 식별될 수 있도록 전처리 작업을 수행한다. 또한, 동형 필터를 통해, 각각의 망막 영상 내 조명 성분과 투과 성분을 추출한 후 분리한다. 그리고 각각의 조명 성분과 투과 성분 조절을 통해 영상의 영상의 농도를 압축하고, 대조도를 증가시켜 망막 영상 내 비관류 영역이 보다 뚜렷하게 식별될 수 있도록 한다.
도 9은 본 발명의 일 실시예에 따른, 학습데이터에 대한 검수자(20)의 검수 결과를 기반으로 딥러닝 기반의 제1 모델을 학습 시키는 방법을 개략적으로 나타낸 순서도이다. 도 10은 본 발명의 일 실시예에 따른, 학습데이터에 대한 검수자(20)의 검수 결과를 기반으로 딥러닝 기반의 제1 모델을 학습 시키는 것을 나타낸 예시도이다.
한편, 도 6을 참조하면, 본 발명의 일 실시예로, S510 단계는, 학습데이터를 검수자(20)에게 배정하여 검수 수행을 요청하고(S512), 검수자(20)로부터 검수 결과를 입력 받고(S513), 검수 결과를 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시킬 수 있다.
즉, 생성된 학습데이터를 기반으로 딥러닝 기반의 제1 모델을 학습시키는 것이 아닌, 학습데이터에 관한 검수 과정을 포함한다. 이때, 검수 과정을 수행하는 복수의 검수자(20)는 의사, 약사 또는 의학과 관련된 전문 지식을 가진 전문가를 포함할 수 있으나, 이에 한정하는 것은 아니다.
구체적으로, 제어부(140)는 획득부(110)의 통신부(미도시)를 통해, 학습데이터를 검수자(20)에게 배정한 후 검수 수행을 요청한다(S510). 검수 수행은, 상술한 전처리 작업인, 망막 영역의 설정(S511_a), 망막 영역의 이미지 분할(S511_b) 그리고 분할된 이미지 중 비관류 영역에 해당하는 이미지에 대한 시각 효과 부여(S511_c) 전반에 관하여 검수 수행을 요청할 수도 있을 것이다. 바람직하게는, S511_b 단계 이후 제어부(140)에 의해 수행된 분할된 이미지 중 비관류 영역에 해당하는 이미지를 정확하게 추출하였는지 여부와 시각 효과가 정확하게 부여되었는지 여부를 검수할 것이다.
다시 도 9를 참조하면, 제어부(140)는 회득부(110)를 통해 검수자(20)로부터 검수 결과를 입력 받는다(S513). 도 10을 참조하면, 검수자(20)에게 배정된 학습데이터(420)와 검수자(20)로부터 입력받은 검수 결과(430)의 내용이 상이한 것을 알 수 있다. 학습부(120)에 의해 추출되어 시각 효과가 부여된 비관류 영역 이외에도 전문적인 지식을 가진 검수자(20)에 의해 더 많은 비관류 영역이 추출되었음을 알 수 있다. 이러한 검수 과정을 통해, 본원발명은 딥러닝 기반의 제1 모델을 학습시키는데 이용되는 보다 정교하고 정확한 소스 데이터를 생성한다.
도 9를 참조하면, 검수자(20)로부터 검수 결과(430)를 입력받은 후 제어부(140)는 학습부(120)를 통해, 딥러닝 기반의 제1 모델을 학습시킨다(S514). 검수 결과(430)를 기반으로 딥러닝 기반의 제1 모델을 학습시키는 과정은 상술하였는바, 상세한 설명은 생략하도록 한다.
한편, 상술한 검수 과정은 복수의 학습 데이터 및 복수의 검수자(20)를 기반으로 한 크라우드소싱 시스템을 통해 이루어질 수 있으나, 이에 한정하는 것은 아니다.
또한 본 발명의 일 실시예로, 상술한 비관류 영역의 자동 탐지 방법은, 제1 영상 내에서 탐지된 비관류 영역을 기초로 신생 혈관의 위치를 판단하는 단계를 더 포함할 수 있다. 이때, 사용자에게 제공되는, 비관류 영역에 대한 시각 효과가 부여된 제2 영상은, 상기 신생 혈관을 나타내는 시각 효과가 더 부여되어 생성될 수 있다.
보다 구체적으로, 제어부(140)는 식별된 비관류 영역과 관류 영역의 경계를 식별하고, 식별된 경계에서 발생되는 신생 혈관의 위치를 판단한다. 그리고, 신생 혈관을 식별할 수 있는 시각 효과를 부여함으로써, 사용자가 비관류 영역과 더불어 신생 혈관에 대해서도 식별할 수 있도록 한다.
이상에서 전술한 본 발명의 일 실시예에 따른 딥러닝 기반의 비관류 영역의 자동 탐지 방법은, 하드웨어인 서버와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (15)

  1. 서버에 의해 수행되는 망막 영상 내의 비관류 영역의 자동 탐지 방법에 있어서,
    상기 망막 영상인 제1 영상을 획득하는 단계;
    딥러닝 기반의 제1 모델을 기반으로 상기 제1 영상 내의 비관류 영역을 탐지하는 단계;
    상기 제1 영상 내에서 상기 탐지된 비관류 영역을 나타내는 시각 효과를 부여한 제2 영상을 생성하는 단계; 및
    상기 생성된 제2 영상을 출력하는 단계;를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 생성 단계는,
    상기 제1 영상 내의 비관류 영역의 넓이를 산출하는 단계;를 더 포함하고,
    상기 출력 단계는,
    상기 산출된 비관류 영역의 넓이를 나타내는 정보를 포함한 상기 제2 영상을 출력하는 것인, 방법.
  3. 제1항에 있어서,
    복수의 망막 영상을 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시키는 단계;를 더 포함하고,
    상기 학습 단계는,
    상기 복수의 망막 영상을 전처리하여 학습데이터를 생성하고, 상기 학습데이터를 기반으로 상기 딥러닝 기반의 제1 모델을 학습시키는 것인, 방법.
  4. 제3항에 있어서,
    상기 학습 단계는,
    상기 복수의 망막 영상을 전처리하여, 상기 학습데이터를 생성하는 단계를 더 포함하고,
    상기 학습데이터 생성 단계는,
    상기 복수의 망막 영상 내의 각각의 망막 영역을 설정하는 단계;
    상기 복수의 망막 영상 각각의 속성에 기반하여, 상기 각각의 망막 영역의 이미지를 분할하는 단계; 및
    상기 분할된 이미지 중 상기 비관류 영역에 해당하는 적어도 하나의 이미지에 상기 시각 효과를 부여하여 상기 학습데이터를 생성하는 단계;를 포함하는, 방법.
  5. 제4항에 있어서,
    상기 학습데이터를 검수자에게 배정하여 검수 수행을 요청하는 단계;
    상기 검수자로부터 검수 결과를 입력받는 단계; 및
    상기 검수 결과를 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시키는 단계를 포함하는, 방법.
  6. 제4항에 있어서,
    상기 복수의 망막 영상을 전처리하는 것은,
    상기 복수의 망막 영상의 Contrast 조절 및 Homomorphic 필터 통과 중 적어도 하나를 기반으로 전처리하는 것인, 방법.
  7. 제4항에 있어서,
    상기 속성은, 상기 복수의 망막 영상 각각의 균질성, 신호세기 및 엔트로피 중 적어도 하나를 포함하는, 방법.
  8. 제1항에 있어서,
    상기 제1 영상 내에서 탐지된 비관류 영역을 기초로 신생 혈관의 위치를 판단하는 단계;를 더 포함하고,
    상기 제2 영상은,
    상기 신생 혈관을 나타내는 시각 효과가 더 부여되어 생성되는, 방법.
  9. 컴퓨터와 결합하여 제1항의 망막 영상 내의 비관류 영역의 자동 탐지 방법을 수행하기 위하여 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
  10. 망막 모세혈관에 관한 제1 영상을 입력받는 획득부; 및
    상기 제1 영상을 기 학습된 딥러닝 기반의 제1 모델에 입력하여 상기 제1 영상 내 비관류 영역을 탐지하고, 상기 탐지된 비관류 영역을 식별할 수 있도록 제1 영상 내 상기 비관류 영역을 이미지 처리하여 제2 영상을 생성하고, 상기 제1 영상 및 상기 제2 영상을 제공하는 제어부;를 포함하는,
    비관류 영역의 자동 탐지 장치.
  11. 제10항에 있어서,
    상기 제어부는,
    상기 제1 영상 내의 비관류 영역의 넓이를 산출하고, 상기 산출된 비관류 영역의 넓이를 나타내는 정보를 포함한 상기 제2 영상을 출력하는 것인,
    비관류 영역의 자동 탐지 장치.
  12. 제10항에 있어서,
    복수의 영상 데이터를 전처리하여 학습데이터를 생성하고, 상기 학습데이터를 기반으로 상기 딥러닝 기반의 제1 모델을 학습시키는 학습부를 더 포함하는,
    비관류 영역의 자동 탐지 장치.
  13. 제12항에 있어서,
    상기 학습부는, 상기 복수의 망막 영상을 전처리하여, 상기 학습데이터를 생성하고,
    상기 학습부는, 상기 학습데이터를 생성 시에, 상기 복수의 망막 영상 내의 각각의 망막 영역을 설정하고, 상기 복수의 망막 영상 각각의 속성에 기반하여, 상기 각각의 망막 영역의 이미지를 분할하고, 상기 분할된 이미지 중 상기 비관류 영역에 해당하는 적어도 하나의 이미지에 상기 시각 효과를 부여하여 상기 학습데이터를 생성하고,
    상기 학습부는, 상기 복수의 망막 영상을 전처리 시에, 상기 복수의 망막 영상의 Contrast 조절 및 Homomorphic 필터 통과 중 적어도 하나를 기반으로 전처리하며,
    상기 속성은, 상기 복수의 망막 영상 각각의 균질성, 신호세기 및 엔트로피 중 적어도 하나를 포함하는,
    비관류 영역의 자동 탐지 장치.
  14. 제13항에 있어서,
    상기 제어부는,
    상기 학습데이터를 검수자에게 배정하여 검수 수행을 요청하고, 상기 검수자로부터 검수 결과를 입력받고,
    상기 학습부는,
    상기 검수 결과를 기반으로, 상기 딥러닝 기반의 제1 모델을 학습시키는,
    비관류 영역의 자동 탐지 장치.
  15. 제10항에 있어서,
    상기 제어부는, 상기 제1 영상 데이터 내에서 탐지된 비관류 영역을 기초로 신생 혈관의 위치를 판단하고,
    상기 제2 영상은, 상기 신생 혈관을 나타내는 시각 효과가 더 부여되어 생성되는, 비관류 영역의 자동 탐지 장치.
PCT/KR2022/003843 2021-03-18 2022-03-18 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법 WO2022197157A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210035506A KR102543937B1 (ko) 2021-03-18 2021-03-18 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법
KR10-2021-0035506 2021-03-18

Publications (1)

Publication Number Publication Date
WO2022197157A1 true WO2022197157A1 (ko) 2022-09-22

Family

ID=83321193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/003843 WO2022197157A1 (ko) 2021-03-18 2022-03-18 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법

Country Status (2)

Country Link
KR (1) KR102543937B1 (ko)
WO (1) WO2022197157A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160071266A1 (en) * 2014-09-08 2016-03-10 The Cleveland Clinic Foundation Automated analysis of angiographic images
KR101887415B1 (ko) * 2017-11-21 2018-08-10 주식회사 크라우드웍스 데이터 라벨링 작업 검수방법 및 프로그램
US20210000343A1 (en) * 2018-01-19 2021-01-07 Nikon Corporation Diagnosis support device, learning device, diagnosis support method, learning method, and program
KR102203320B1 (ko) * 2018-09-27 2021-01-15 주식회사 스위트케이 인공지능 기반의 학습데이터셋 제공 시스템
KR20210012097A (ko) * 2019-07-23 2021-02-03 단국대학교 산학협력단 딥러닝에 기반한 당뇨망막병증 검출 및 증증도 분류장치 및 그 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130112579A (ko) 2012-04-04 2013-10-14 정하철 눈의 홍채 촬영장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160071266A1 (en) * 2014-09-08 2016-03-10 The Cleveland Clinic Foundation Automated analysis of angiographic images
KR101887415B1 (ko) * 2017-11-21 2018-08-10 주식회사 크라우드웍스 데이터 라벨링 작업 검수방법 및 프로그램
US20210000343A1 (en) * 2018-01-19 2021-01-07 Nikon Corporation Diagnosis support device, learning device, diagnosis support method, learning method, and program
KR102203320B1 (ko) * 2018-09-27 2021-01-15 주식회사 스위트케이 인공지능 기반의 학습데이터셋 제공 시스템
KR20210012097A (ko) * 2019-07-23 2021-02-03 단국대학교 산학협력단 딥러닝에 기반한 당뇨망막병증 검출 및 증증도 분류장치 및 그 방법

Also Published As

Publication number Publication date
KR20220130511A (ko) 2022-09-27
KR102543937B1 (ko) 2023-06-14

Similar Documents

Publication Publication Date Title
WO2019132170A1 (ko) 학습용 데이터 관리방법, 장치 및 프로그램
WO2021040258A1 (ko) 안구 영상 내 혈관 분할을 이용한 자동 질환 판단 장치 및 그 방법
WO2020111754A9 (ko) 세미 슈퍼바이즈드 학습을 이용한 진단 시스템 제공방법 및 이를 이용하는 진단 시스템
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2021153858A1 (ko) 비정형 피부질환 영상데이터를 활용한 판독보조장치
WO2021132813A1 (ko) 딥러닝 모델을 이용한 통증 평가 방법 및 분석 장치
WO2020180135A1 (ko) 뇌 질환 예측 장치 및 방법, 뇌 질환을 예측하기 위한 학습 장치
CN106570440A (zh) 基于图像分析的人数统计方法和人数统计装置
WO2022197157A1 (ko) 딥러닝 기반의 안저 형광 혈관 조영 영상 내 비관류 영역의 자동 탐지 장치 및 방법
WO2021002669A1 (ko) 병변 통합 학습 모델을 구축하는 장치와 방법, 및 상기 병변 통합 학습 모델을 사용하여 병변을 진단하는 장치와 방법
WO2021225226A1 (ko) 알츠하이머 진단 장치 및 방법
WO2020246676A1 (ko) 자궁경부암 자동 진단 시스템
WO2022158843A1 (ko) 조직 검체 이미지 정제 방법, 및 이를 수행하는 컴퓨팅 시스템
WO2022119347A1 (ko) 초음파 영상 기반의 딥 러닝을 통한 관상동맥 경화반 조직 분석 방법, 장치 및 기록매체
WO2019164273A1 (ko) 수술영상을 기초로 수술시간을 예측하는 방법 및 장치
WO2020226455A1 (ko) 안저 이미지를 이용한 시신경병증 예측 장치 및 시신경병증 예측 결과 제공 방법
WO2022114371A1 (ko) 발열검사기의 실화상과 열화상의 최적 자동 매핑 방법 및 그 방법을 적용한 발열검사기
WO2022034955A1 (ko) 영상 처리를 기반으로 하는 각막궤양 검출 장치 및 그 방법
WO2022019355A1 (ko) 다중 페이즈 생체 이미지를 이용하여 학습된 뉴럴 네트워크를 이용한 질병 진단 방법 및 이를 수행하는 질병 진단 시스템
CN111767829B (zh) 一种活体检测方法、装置、系统及存储介质
WO2021015490A2 (ko) 이미지의 특이 영역 분석 방법 및 장치
WO2021015489A2 (ko) 인코더를 이용한 이미지의 특이 영역 분석 방법 및 장치
CN111191638A (zh) 一种因果模型的人脸信息与体温信息检测方法及系统
WO2023204341A1 (ko) 머신 러닝을 이용한 차량 동일성 인식장치 및 방법
WO2024010133A1 (ko) 머신 러닝을 이용한 영상 노이즈 학습 서버 및 영상 노이즈 저감 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22771823

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22771823

Country of ref document: EP

Kind code of ref document: A1