WO2020116878A1 - Intracranial aneurysm prediction device using fundus photo, and method for providing intracranial aneurysm prediction result - Google Patents

Intracranial aneurysm prediction device using fundus photo, and method for providing intracranial aneurysm prediction result Download PDF

Info

Publication number
WO2020116878A1
WO2020116878A1 PCT/KR2019/016849 KR2019016849W WO2020116878A1 WO 2020116878 A1 WO2020116878 A1 WO 2020116878A1 KR 2019016849 W KR2019016849 W KR 2019016849W WO 2020116878 A1 WO2020116878 A1 WO 2020116878A1
Authority
WO
WIPO (PCT)
Prior art keywords
layer
fundus
aneurysm
input
cerebral aneurysm
Prior art date
Application number
PCT/KR2019/016849
Other languages
French (fr)
Korean (ko)
Inventor
박상준
김택균
노경진
Original Assignee
서울대학교병원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교병원 filed Critical 서울대학교병원
Publication of WO2020116878A1 publication Critical patent/WO2020116878A1/en

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor

Definitions

  • the present invention relates to a technique for predicting intracranial aneurysm disease using fundus photography, and more specifically, by applying a patient's fundus photography to a predicted model of cerebral aneurysm based on sample data associated with fundus photography
  • the present invention relates to a device for predicting cerebral aneurysm and a method for providing results of predicting cerebral aneurysm to determine whether the patient has a cerebral aneurysm.
  • degenerative diseases include vascular diseases, joint diseases, and the like, and vascular diseases belong to diseases with a high risk of death due to the physical structure characteristics of blood vessels, difficulty in surgery, and high probability of sequelae. Indeed, according to data from the Korea Statistical Office in 2016, heart disease and cerebrovascular disease are the second and third leading causes of death.
  • Cerebral aneurysm is one of the cerebrovascular diseases, which is a disease in which a part of the brain artery in the head is formed due to a defect.
  • Cerebral aneurysm When a patient has a cerebral aneurysm, when a part of the patient's cerebral blood vessels are weak, the blood vessel walls are stretched and flared out. Because the blood vessel wall of the cerebral artery is thin and structurally different from the normal like a tummy shape, the cerebral blood vessels of a cerebral aneurysm disease can easily burst.
  • the most common disease of cerebral aneurysms is subarachnoid hemorrhage, which has the highest mortality and disability rates. Most of the subarachnoid hemorrhages have a symptom of swelling of a part of the cerebral blood vessels, which eventually leads to the occurrence of intracranial aneurysm.
  • an unruptured cerebral aneurysm usually does not cause symptoms before rupture, and is a disease unpredictable on a simple CT.
  • Screening tests currently commonly performed include, for example, invasive tests such as percutaneous intracranial angiography (TFCA), or high radiation such as brain computed tomography angiography (CT Angio), magnetic resonance angiography (MRA). This may include inspection or expensive imaging.
  • invasive tests such as percutaneous intracranial angiography (TFCA), or high radiation such as brain computed tomography angiography (CT Angio), magnetic resonance angiography (MRA).
  • CT Angio brain computed tomography angiography
  • MRA magnetic resonance angiography
  • This current screening test is an invasive test and/or a test using a contrast agent, and there is a possibility of adversely affecting the health of the test subject due to the risk of the invasion and contrast agent.
  • Brain aneurysms such as subarachnoid hemorrhage, can be preventively treated if predicted before rupture. However, since cerebral aneurysms rarely develop symptoms, it is very difficult to detect unruptured cerebral aneurysms in an unexploded state. Because of this, it is also difficult to determine who will perform the above-mentioned invasive or expensive imaging tests.
  • a cerebral aneurysm capable of determining with high accuracy whether a patient has a cerebral aneurysm by applying a patient's fundus photograph to a predicted cerebral aneurysm model based on sample data associated with the fundus photograph. It is possible to provide a prediction device and a method for providing a predicted result of a cerebral aneurysm.
  • a method for providing a result of predicting cerebral aneurysm performed by a computing device including a processor according to an aspect of the present invention or a method for predicting a brain aneurysm (determination) includes: obtaining a fundus photograph of a subject; And applying the fundus photo data of the subject to a cerebral aneurysm prediction model to determine whether the subject has a cerebral aneurysm.
  • the cerebral aneurysm prediction model is a model in which the ability to classify an input fundus photograph into a cerebral aneurysm group using a plurality of training samples including a learning fundus photograph is learned.
  • the cerebral aneurysm prediction model comprises: an input layer into which a fundus photograph is input; A feature extraction layer including a plurality of convolutional layers and a pooling layer and extracting features from the fundus photo of the input layer; And a complete connection layer including a plurality of nodes, and may include a classification layer that classifies the fundus picture input based on the feature into a cerebral aneurysm group or a non-disease group.
  • At least one of the plurality of convolutional layers may include a residual bottleneck block configured such that input data proceeds through a plurality of paths and then recombines.
  • the residual bottleneck block includes a plurality of subconvolutional layers, wherein each subconvolutional layer is configured such that a convolution filter is applied, and the residual bottleneck block includes input data having a first path and a second path. It may be configured to proceed through, and the data proceeding through the first path and the data proceeding through the second path are combined.
  • input data traveling through the first path may pass through a plurality of sub-convolutional layers.
  • at least one of the plurality of sub-convolution layers through which the input data through the first path passes may output data having a lower dimension than other convolution filters.
  • the residual bottleneck block is output from a first subconvolutional layer and a first subconvolutional layer that output a first featuremap by applying a plurality of 1 ⁇ 1 filters to the input featuremap.
  • a second sub-convolution layer that outputs a second feature map by applying a plurality of 3 ⁇ 3 sized filters to the first feature map, and a plurality of 1 ⁇ 1 to a second feature map output from the second sub-convolution layer
  • a third sub-convolution layer that outputs a third feature map by applying a size filter may be included.
  • the input data proceeding through the second path is the Sampling may be performed to correspond to the sampling data.
  • data combining in the residual bottleneck block may be performed by element-wise addition processing.
  • the feature extraction layer may include a first convolution layer.
  • the first convolution layer is configured to output a first feature map using 64 7 ⁇ 7 filters on the fundus image output from the input layer.
  • the feature extraction layer may further include a max pooling layer configured to perform max pooling of the first feature map.
  • the feature extraction layer may further include second to fourth convolution layers.
  • at least one of the second convolution layer to the fourth convolution layer includes the residual bottleneck block.
  • At least one of the second convolution layer to the fourth convolution layer may include a plurality of residual bottleneck blocks.
  • At least one residual bottleneck block is configured to sample and output input data.
  • the cerebral aneurysm prediction model may be learned by updating the parameters included in the cerebral aneurysm prediction model in a direction that minimizes the cost function of the cerebral aneurysm prediction model.
  • the loss function represents the difference between the actual value and the result obtained by applying the fundus photograph to the cerebral aneurysm prediction model.
  • the cerebral aneurysm prediction model may be trained using a learning sample including a monocular fundus photograph.
  • the step of acquiring a fundus photograph of the subject further includes filtering the binocular fundus photograph so that the monocular fundus photograph is applied to the model for predicting cerebral aneurysm when the binocular fundus photograph of the subject is obtained. can do.
  • the cerebral aneurysm prediction model may be trained using a learning sample including a binocular fundus photograph.
  • the cerebral aneurysm prediction model includes: a first input layer into which a first fundus photograph is input; A first feature extraction layer for extracting features of the first fundus picture; A second input layer into which a second fundus photograph is input; A second feature extraction layer for extracting features of the second fundus picture; A combining layer configured to combine the feature values of the first feature extraction layer and the feature values of the second feature extraction layer; And a classification layer for classifying a ocular fundus photograph into a cerebral aneurysm group or a non-cerebral aneurysm group based on the combined feature values.
  • the combining layer may be configured to handle vector concatenation.
  • the computer-readable recording medium may store program instructions readable by a computing device and operable by the computing device.
  • the program instruction when executed by a processor of the computing device, the processor may perform a method for predicting cerebral aneurysm according to the above-described embodiments.
  • a brain aneurysm prediction apparatus for predicting a cerebral aneurysm using a fundus photograph includes a storage unit for storing a pre-trained brain aneurysm prediction model; A data acquisition unit that acquires a fundus photograph of the subject; And a predictor configured to determine whether the subject has a cerebral aneurysm by applying the fundus photo data of the subject to the cerebral aneurysm prediction model.
  • the cerebral aneurysm prediction model comprises: an input layer into which a monocular fundus photograph is input; A feature extraction layer that extracts features from the fundus picture of the input layer; And a classification layer for classifying the fundus picture input based on the feature into a cerebral aneurysm group or a non-disease group.
  • the cerebral aneurysm prediction model includes: a first input layer into which a first fundus photograph is input; A first feature extraction layer for extracting features of the first fundus picture; A second input layer into which a second fundus photograph is input; A second feature extraction layer for extracting features of the second fundus picture; A combining layer configured to combine the feature values of the first feature extraction layer and the feature values of the second feature extraction layer; And a classification layer for classifying a ocular fundus photograph into a cerebral aneurysm group or a non-disease group based on the combined feature values.
  • the apparatus for predicting cerebral aneurysm according to an aspect of the present invention is a non-invasive method and can predict whether or not a cerebral aneurysm is performed with high accuracy through fundus photography with little risk to a subject.
  • a fundus camera capable of taking fundus photographs is widely used in most ophthalmology clinics, and thus has high accessibility, and does not need to have a separate medical device for measuring a patient's body condition for predicting cerebral aneurysms.
  • fundus photography is relatively inexpensive compared to conventional cerebral aneurysm examination. That is, the accessibility and stability of the inspection are very high, and economically low.
  • the apparatus for predicting cerebral aneurysm according to an aspect of the present invention is capable of predicting an unruptured cerebral aneurysm that is difficult to test in the related art.
  • the present invention can be utilized as a non-invasive and easy examination technique that can screen people who are likely to have cerebral aneurysms. For example, it can be used to filter the high-risk group of cerebral aneurysms prior to conducting current invasive or imaging tests. Therefore, it is possible to reduce the social and economic costs consumed by a person who does not need a brain aneurysm test.
  • the apparatus for predicting cerebral aneurysm according to the present invention may be used as a device for diagnosing a person with cerebral aneurysm disease.
  • FIG. 1 is a schematic block diagram of an apparatus for predicting cerebral aneurysm, according to an embodiment of the present invention.
  • 2 is a diagram for explaining residual learning.
  • FIG. 3 is a view for explaining the structure of a brain aneurysm prediction model according to an embodiment of the present invention.
  • FIG. 4A is a diagram for explaining a detailed structure of a model for predicting cerebral aneurysm of FIG. 3 according to an embodiment of the present invention.
  • FIG. 4B is a view for explaining some convolutional layers of FIG. 4A according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a process of determining a cerebral aneurysm using the model of FIG. 3 according to an embodiment of the present invention.
  • FIG. 6 is a diagram for explaining the structure of a brain aneurysm prediction model according to a second embodiment of the present invention.
  • FIG. 7 is a view for explaining the performance of the brain aneurysm prediction model according to an experimental example of the present invention.
  • FIG. 8 is a diagram illustrating prediction results of a fundus photograph according to an experimental example of the present invention.
  • cerebral aneurysm refers to a disease caused by an abnormality in cerebral arteries, such as subarachnoid hemorrhage, which occurs due to swelling of a part of the cerebral blood vessels.
  • a fundus image may be referred to as a retinal fundus image.
  • FIG. 1 is a schematic block diagram of an apparatus for predicting cerebral aneurysm, according to an embodiment of the present invention.
  • the apparatus for predicting cerebral aneurysm 1000 includes a data acquisition unit 10 that acquires a fundus photograph of a subject; And a prediction unit 50 that determines whether the subject has a cerebral aneurysm by applying the fundus photo data of the subject to the brain aneurysm prediction model.
  • the cerebral aneurysm prediction apparatus 1000 may further include a learning unit 30 for modeling a brain aneurysm prediction model.
  • the optic nerve papilla and the blood vessels of the retina are genetically differentiated parts of the brain and have characteristics similar to those of the brain, and there is a possibility that the retinal blood vessel abnormality and the cerebral blood vessel abnormality are related. That is, an abnormality of the cerebral blood vessel may be realized as an abnormality of the retinal blood vessel.
  • the apparatus for predicting cerebral aneurysm 1000 may determine a subject with cerebral aneurysm using a fundus photograph of the subject.
  • the cerebral aneurysm prediction apparatus 1000 may have aspects that are entirely hardware, entirely software, or partially hardware and partially software.
  • the cerebral aneurysm prediction apparatus 1000 may collectively refer to hardware equipped with data processing capability and operating software for driving the hardware.
  • the terms "unit”, “module”, “device”, or “system” in this specification are intended to refer to a combination of hardware and software driven by the hardware.
  • the hardware may be a data processing device including a central processing unit (CPU), a graphics processing unit (GPU), or other processor.
  • the software may refer to a running process, an object, an executable, a thread of execution, a program, or the like.
  • the data acquisition unit 10 receives a fundus photograph of a subject photographed by the fundus camera.
  • the fundus camera includes various fundus cameras capable of obtaining fundus photos.
  • the fundus camera may include a Shandong fundus camera, a Musandong fundus camera, an OCT type fundus camera, and the like.
  • fundus photographs are obtained in the form of binocular fundus photographs.
  • the data acquisition unit 10 may acquire a monocular fundus photograph.
  • the labeling data indicating whether the obtained monocular fundus photograph is the fundus photograph of the left eye or the fundus photograph of the right eye may be further obtained.
  • the data acquisition unit 10 may acquire data related to the fundus photograph.
  • the data related to the fundus photograph may include subject identification information (eg, name, identity information, identifier, etc.) that can identify the subject of the fundus photograph.
  • the data acquisition unit 10 provides the fundus photograph and data related to the fundus photograph of the subject to the prediction unit 50.
  • the fundus photograph provided to the prediction unit 50 depends on the structure of the brain aneurysm prediction model used by the prediction unit 50.
  • the data acquisition unit 10 when the brain aneurysm prediction model is trained using a binocular fundus photograph, the data acquisition unit 10 provides the subject's binocular fundus photograph to the predictor 50.
  • the data acquisition unit 10 may be further configured to provide a corresponding monocular photograph.
  • the data acquisition unit 10 that acquires the binocular photograph may filter the binocular photograph and provide only the left-eye photograph to the predictor 50.
  • the predicting unit 50 determines whether the subject has a cerebral aneurysm by applying a fundus photograph of the subject to a brain aneurysm prediction model. In one embodiment, the prediction unit 50 may determine whether the subject is a patient by using a situation determination model learned by the learning unit 30.
  • the prediction unit 50 may determine whether the subject is a patient by using a situation determination model previously learned in the learning unit 30.
  • the previously learned situation determination model may be stored in a storage device (not shown) of the device 1000.
  • the learning unit 30 learns a brain aneurysm prediction model for predicting whether or not a cerebral aneurysm exists using a plurality of samples for learning.
  • Each learning sample may include a binocular fundus photograph or a monocular fundus photograph, disease data indicating whether or not a cerebral aneurysm exists.
  • the disease data may be expressed as binary labels representing true and false cerebral aneurysms.
  • the learning unit 30 may be a component included in the brain aneurysm prediction apparatus 1000 as shown in FIG. 1.
  • the present invention is not limited to this.
  • the learning unit 30 may be a component remotely located in the brain aneurysm prediction apparatus 1000.
  • the apparatus 1000 may receive and store the brain aneurysm prediction model previously generated by the remotely located learning unit 30 prior to the brain aneurysm test on the subject, and use the brain aneurysm test on the subject.
  • the cerebral aneurysm prediction apparatus 1000 may further include a storage device (not shown) for storing a pre-generated brain aneurysm prediction model.
  • the storage device may include a read-only memory (ROM), a flash memory, and a hard disk drive (HDD).
  • ROM read-only memory
  • HDD hard disk drive
  • the cerebral aneurysm prediction model may be stored in a cloud server, and the device 1000 may be configured to use the cerebral aneurysm prediction model by communicating with the cloud server.
  • the cerebral aneurysm prediction model is composed of a convolutional neural network (CNN) structure including at least one convolution layer, a pooling layer, and a full-connected layer responsible for final determination. Can be.
  • CNN convolutional neural network
  • At least a portion of the cerebral aneurysm prediction model may be configured to include a residual bottleneck block.
  • 2 is a diagram for explaining residual learning.
  • a machine learning model with a deeper network can well extract the representative concepts present in the training data, so the deeper the network included in the machine learning model, the better the learning result.
  • the residual bottleneck block has a structure in which a type of skip connection (or referred to as a shortcut connection) is added to an existing stacked structure in a CNN-based model having a deep structure. .
  • the residual bottleneck block can learn the residual between the output H(x) and the input stacked through the weighting layer, and as a result, the original learning intended result F(x) can be obtained.
  • learning of a CNN model having a residual learning block structure that only needs to learn residuals may be referred to as residual learning.
  • a CNN model including such a residual bottleneck block If a CNN model including such a residual bottleneck block is used, it can be easily optimized even in a deep network structure. Therefore, the model for predicting cerebral aneurysm based on the residual bottleneck block structure can be optimized with a deep network structure and has high accuracy.
  • the structure of the brain aneurysm prediction model based on the residual bottleneck block structure will be described in more detail with reference to FIGS. 3 and 7 below.
  • FIG. 3 is a diagram for explaining the structure of a model for predicting a brain aneurysm to which a monocular fundus photograph is applied according to a first embodiment of the present invention.
  • the brain aneurysm prediction model includes an input layer 310, a feature extraction layer 330, and a classification layer 350.
  • the input layer 310 receives a training sample for learning and outputs a fundus image.
  • the fundus image is transferred to the feature extraction layer 330.
  • the input layer 310 may be configured to output as a retinal fundus image composed of 512 ⁇ 512 RGB (ie, 512 ⁇ 512 ⁇ 3) channels.
  • the input layer 310 may be further configured to perform augmentation processing. For example, to derive stronger learning results for fundus photos, random filp, random rotation (e.g., between -30° and 30°), random brightness adjustment ), random contrast adjustment, etc. may be performed.
  • augmentation processing For example, to derive stronger learning results for fundus photos, random filp, random rotation (e.g., between -30° and 30°), random brightness adjustment ), random contrast adjustment, etc. may be performed.
  • the feature extraction layer 330 extracts features that can be used to predict cerebral aneurysms from the output image output from the input layer 310.
  • the above features are extracted through a convolution filter.
  • the feature extraction layer 330 includes a plurality of convolutional layers and a pooling layer. At least one of the plurality of convolutional layers may include a residual bottleneck block B configured such that input data is processed through a stack path, which is a path through which the input data passes through the stack structure, and a shortcut path that does not pass through the stack structure. have.
  • the residual bottleneck block (B) is input data going through the stack path to extract features by passing at least one sub-convolution layer modeled so that a convolution filter is applied (that is, output a feature map) ) Is composed.
  • the progress of the data refers to a series of data processing processes performed by proceeding along a path.
  • the output data processed through the stack path is combined with data processed through the shortcut path.
  • the residual bottleneck block may be further configured to apply a sampling filter to the data input to the shortcut path when the size of the data input to the stack path is reduced in the feature extraction process. Due to the application of the sampling filter, data corresponding to data output through the stack path may be output through the shortcut path. For example, when the feature map output through the stack path is 1/2 size compared to the input feature map, a sampling filter may be applied to the shortcut path to output a feature map of the same size as the output feature map.
  • the sampling filter includes a filter configured to perform only the stride operation or a convolution filter configured to extract features simultaneously with the stride operation.
  • the sampling filter may be a 1 ⁇ 1 sized sampling filter that moves at 2 pixel intervals.
  • FIG. 4A is a diagram for explaining a detailed structure of a model for predicting cerebral aneurysm of FIG. 3 according to an embodiment of the present invention.
  • the feature extraction layer 330 of the cerebral aneurysm prediction model of FIG. 3 includes 5 convolutional layers 331, 333, 334, 335, 336, 1 max pooling layer 332, and 1 average A pulling layer 337 may be included.
  • the convolution layer 331 applies a convolution filter to the data input through the input layer 310 (eg, a fundus image of 512 ⁇ 512 ⁇ 3) and outputs a feature map.
  • the convolutional layer 331 outputs a feature map of the convolutional layer 331 by moving 64 7 ⁇ 7 sized filters at 2 pixel intervals and applying them.
  • the max pooling layer 332 is configured to perform max pooling on the feature map output from the convolution layer 331.
  • the max pooling layer 332 outputs a feature map sampled in size 1/2 by moving and applying a 3 ⁇ 3 filter at 2 pixel intervals.
  • the convolution layer 333 receives the sampled feature map output from the max pooling layer 332, and applies a convolution filter to it to output the feature map.
  • the convolution layer 333 includes a residual bottleneck block (B).
  • the residual bottleneck block B of the convolution layer 333 includes a stack path for outputting a stacking output as input data sequentially passes through the plurality of sub-layers, and input data is the It is configured to proceed with a shortcut path that combines with the output data of the stack path.
  • the residual bottleneck block is a plurality of sub-layers located on a stack path, and includes a plurality of sub-layers configured to apply a convolution filter to input data. Within the plurality of sub-layers, at least one sub-layer is configured to apply a convolution filter that outputs data of a lower dimension than the convolution filter included in the other sub-layer.
  • 4B is a diagram for explaining the structure of a residual bottleneck block included in a convolution layer, according to an embodiment of the present invention.
  • the residual bottleneck block B of the convolution layer 333 is applied to the input feature map by applying a plurality of (eg, 64) 1 ⁇ 1 size convolution filters.
  • a second feature map by applying a plurality of (e.g., 64) 3 ⁇ 3 size filters to the first feature map output from the sub-convolution layer 3331 and the sub-convolution layer 3331 that output the 1 feature map
  • a third feature map by applying a plurality of (for example, 128) 1 ⁇ 1 convolution filters to the sub-convolution layer 3333 outputting and the second feature map output from the sub-convolution layer 3333 It includes a sub-convolution layer (3335) for outputting.
  • the subconvolution layers 3331, 3333, and 3335 are sequentially applied to the input data of the stack path.
  • the convolution layer 333 having the structure of FIG. 4B reduces the dimension of data by using a subconvolution layer 3331 having a 1 ⁇ 1 filter, and then a subconvolution layer 3333 having a 3 ⁇ 3 filter Use to increase the data dimension.
  • a subconvolution layer 3333 having a 3 ⁇ 3 filter Use to increase the data dimension.
  • the subconvolution layer 3333 is referred to as a bottleneck layer. Can be.
  • the convolution layer 333 is further configured to combine input data (ie, a sampled feature map) with a third feature map output from the stack path.
  • the combining may be performed by element-wise addition processing.
  • the convolution layer 333 may be further configured to replace data (feature map) output from the subconvolution layer.
  • the convolution layer 333 may replace the feature value of the feature map using the activation function ReLU.
  • ReLU is a function that outputs 0 for inputs below 0 and linearly proportional values for inputs above 0.
  • the convolution layer 333 may output an alternative value by applying an activation function ReLU to an output value in which the feature map output by the stack path and the feature map output by the shortcut path are combined.
  • the convolution layer 333 may be further configured to apply an activation function ReLU to the output values of the subconvolution layers 3331 and 3333.
  • the convolution layer 333 may be further configured such that the feature extraction process is repeated multiple times.
  • the convolution layer 333 may include a plurality of residual bottleneck blocks B, such that the feature extraction process is performed multiple times.
  • the convolution layer 333 may include three residual bottleneck blocks B to iterate the aforementioned feature extraction process three times.
  • Other convolutional layers 334, 335, and 336 also include a residual bottleneck block (B).
  • the residual bottleneck block also includes a plurality of sub-layers including a convolution filter, a stack path for outputting a stacking output as input data sequentially passes through the plurality of sub-layers, and the input data is the stack path It is configured to proceed with a shortcut path to combine with the output data of.
  • Other convolutional layers 334, 335, and 336 will be described based on differences from the convolutional layer 333.
  • the residual bottleneck block B of the convolutional layer 334 includes a plurality of (e.g., featuremaps output from the convolutional layer 333). , 128) Subconvolution layer 341 configured to output a first feature map by applying a 1 ⁇ 1 convolution filter; A sub-convolution layer 3343 configured to output a second feature map by applying a plurality of (eg, 128) 3 ⁇ 3 convolution filters to the first feature map output from the sub-convolution layer 3331; And a subconvolution layer 3345 configured to output a third feature map by applying a plurality of (eg, 512) 1 ⁇ 1 convolution filters to the second feature map output from the subconvolution layer 3333. ).
  • Subconvolution layer 341 configured to output a first feature map by applying a 1 ⁇ 1 convolution filter
  • a sub-convolution layer 3343 configured to output a second feature map by applying a plurality of (eg, 128) 3 ⁇ 3 convolution filters to the first feature map output from the sub-convolution layer 3331
  • the subconvolution layers 3331, 3343, and 3345 are sequentially applied to the input data of the stack path.
  • one or more of the sub-convolution layers may be further configured to reduce the size of the feature map. Therefore, the data output through the stack path may be sampled data.
  • the sub-convolution layer 3331 is configured to move the convolution filter at 2-pixel intervals, and other sub-convolution layers (3343, 3345) is configured so that the convolution filter is moved at intervals of 1 pixel.
  • the output feature map (64x64 in FIG. 4A) of the sub-convolution layer 3331 is sampled in half the size of the input feature map (128x128 in FIG. 4A), thereby stacking the stack path of the convolution layer 334.
  • the sampled feature map may be output through.
  • the convolution layer 334 is configured to combine input data traveling through the shortcut path with a feature map output from the stack path (eg, a third feature map of the subconvolution layer 3345 ).
  • the combining may be performed by element-wise addition processing.
  • the residual bottleneck block B of the convolution layer 334 applies a sampling filter to the data going through the shortcut path. It is composed more.
  • the sampling filter causes data corresponding to data output through the stack path to be output through the shortcut path.
  • the subconvolution layer 3331 among the subconvolution layers 3331, 3343, and 3345 is configured such that the convolution filter moves at 2-pixel intervals, thereby stacking paths.
  • a feature map sampled at a size of 1/2 it may be a sampling filter having a size of 1 ⁇ 1 moving at 2 pixel intervals.
  • the convolution layer 333 may be further configured to replace data (feature map) output from the subconvolution layer.
  • the convolution layer 334 applies the activation function ReLU to the output values of the subconvolution layers 3331 and 3343, and the activation function ReLU to the combined output values of the subconvolution layers 3345 and 3347. Can be applied to print the replacement value.
  • the convolution layer 334 may be further configured such that the feature extraction process is repeated multiple times.
  • the convolution layer 334 may include 8 residual bottleneck blocks to iterate through the feature extraction process 8 times.
  • one or more of the plurality of residual bottleneck blocks may be configured not to sample the input feature map.
  • the residual bottleneck block in which the feature extraction process is first performed e.g, a filter having a size of 1 ⁇ 1 is 2
  • the feature map sampled through the stack path and the shortcut path is output by moving in pixel intervals, and in the remaining residual bottleneck block (e.g., by moving a filter of size 1 ⁇ 1 in pixel intervals) through the stack path and shortcut path
  • a feature map that is not sampled may be output.
  • the residual bottleneck block B of the convolution layer 335 uses a plurality of (eg, 256) convolution filters of size 1 ⁇ 1 on the input feature map (eg, feature map output from the convolution layer 334).
  • a sub-convolution layer 3351 configured to apply and output a first feature map;
  • a subconvolution layer 3353 configured to output a second feature map by applying a plurality of (eg, 256) 3 ⁇ 3 convolution filters to the first feature map output from the subconvolution layer 3351;
  • a sub-convolution layer 3355 configured to output a third feature map by applying a plurality of (eg, 1024) 1 ⁇ 1 convolution filters to the second feature map output from the sub-convolution layer 3335. It may include.
  • the residual bottleneck block of the convolutional layer 335 is configured to combine input data traveling through the shortcut path with a feature map output from the stack path (eg, a third feature map of the subconvolution layer 3355).
  • the convolution layer 335 may be further configured to replace data (feature map) output from the subconvolution layer.
  • At least one of the sub-convolution layers of the residual bottleneck block B included in the convolution layer 335 may be further configured to sample input data (ie, input feature map).
  • the residual bottleneck block included in the convolution layer 335 is further configured such that data sampled through the stack path is output and data sampled through the shortcut path is output.
  • the convolution layer 335 may be further configured such that the feature extraction process is repeated multiple times.
  • the convolution layer 335 may include 64 residual bottleneck blocks to iterate the feature extraction process 64 times.
  • the convolution layer 335 is similar to the configuration of the convolution layer 334, detailed description is omitted.
  • the residual bottleneck block B of the convolution layer 336 includes a plurality of (eg, 512) convolution filters of size 1 ⁇ 1 on the input feature map (eg, feature map output from the convolution layer 335).
  • a sub-convolution layer 3401 configured to apply and output a first feature map;
  • a sub-convolution layer 3403 configured to output a second feature map by applying a plurality of (eg, 512) 3 ⁇ 3 convolution filters to the first feature map output from the sub-convolution layer 3161;
  • a subconvolution layer 3365 configured to output a third feature map by applying a plurality of (eg, 2048) 1 ⁇ 1 convolution filters to the second feature map output from the subconvolution layer 3336. It may include.
  • the residual bottleneck block (B) of the convolution layer 336 is such that the input data going through the shortcut path is combined with the feature map output from the stack path (eg, the third feature map of the subconvolution layer 3356). It is composed.
  • the convolution layer 336 may be further configured to replace data (feature map) output from the sub-convolution layer.
  • At least one of the sub-convolution layers of the residual bottleneck block B included in the convolution layer 336 may be further configured to sample the input data (ie, input feature map).
  • the residual bottleneck block B included in the convolution layer 336 is further configured such that data sampled through the stack path is output and data sampled through the shortcut path is output.
  • the convolution layer 336 may be further configured such that the feature extraction process is repeated multiple times.
  • the convolution layer 336 may include three residual bottleneck blocks B to iterate the feature extraction process three times.
  • the convolution layer 336 is similar to the configuration of the convolution layer 334, detailed description is omitted.
  • features capable of predicting whether or not a cerebral aneurysm is extracted are extracted.
  • features related to discs and blood vessels in the eye may be output as an activation map by applying an activation function.
  • the average pooling layer 337 samples the feature map by averaging the feature map output through the convolution layer 336.
  • the average pooling layer 337 is averaged using a filter of size 16 ⁇ 16 and has a size of 1 ⁇ 1 ⁇ 2048.
  • the brain aneurysm feature map is output.
  • the classification layer 350 may include a full connected layer 351 and/or a probability layer 355.
  • the fully connected layer 351 is composed of a plurality of fully connected nodes, and each node converts input data to output data based on the weight for each node.
  • the fully connected layer 351 receives the cerebral aneurysm feature map output from the feature extraction layer 330 and outputs feature values based on weights of a plurality of nodes.
  • feature values output from the fully connected layer 351 are classified into two groups. For example, a feature value having a size of 1 ⁇ 1 ⁇ 2 is output from the complete connection layer 351 and is classified into a cerebral aneurysm group or a non-cerebral aneurysm group.
  • the probability layer 355 calculates a probability that the fundus photograph belongs to a group of cerebral aneurysms based on the output value output from the complete connection layer 351.
  • the probability layer 355 may calculate the probability by a softmax equation that can be expressed as follows.
  • yk represents the probability of belonging to the k-th group.
  • n is the number of nodes of the output layer in the fully connected layer 351
  • e ak represents the exponential function of the input signal a k of the fully connected layer 351.
  • the softmax layer 355 may calculate a probability value that has a value between 0 and 1 by dividing the value of the k-th element by the sum of all elements.
  • the classification layer 350 determines whether the fundus picture is a fundus picture of a person with a cerebral aneurysm based on the probability value calculated by the softmax layer 355. In one example, when the probability P1 of belonging to the cerebral aneurysm group is 0.5 or more, the fundus photograph may be classified as a cerebral aneurysm group.
  • the classification method based on the probability is a simple example and is not limited thereto, and a probability threshold value by various methods may be used for classification. In another example, an optimal value obtained using the ROC curve may be set as a probability threshold.
  • Equation 1 is a simple example, and the probability P1 may be calculated by another Softmax equation.
  • the learning unit 30 updates parameters of the cerebral aneurysm prediction model of FIG. 3 according to learning.
  • the fundus photographs included in the plurality of training samples are input to the cerebral aneurysm prediction model to classify the fundus photographs, and the classification results (ie, model application results) and disease data included in the training samples (ie, actual results) ) To update the parameter to reduce the error.
  • the feature extraction layer 330 eg, a convolutional layer
  • the classification layer 350 eg, a fully connected layer
  • the learning unit 30 models the brain aneurysm prediction model of FIG. 3, which determines whether a cerebral aneurysm is based on a monocular fundus photograph using a learning sample.
  • the learning sample is a monocular fundus photograph, and includes a left-eye fundus photograph or a right-eye fundus photograph.
  • each fundus photograph of a particular photographer is not used as a learning sample.
  • a model for predicting a brain aneurysm based on a left eye fundus photograph for a specific photographer is trained, a model for predicting a brain aneurysm based on a right eye fundus photograph for a specific photographer is not further trained.
  • the brain aneurysm prediction model of FIG. 3 it is not limited to a particular type of monocular fundus photograph. If the brain aneurysm prediction model is learned based on the left eye fundus photograph for the first photographer, the brain aneurysm prediction model may be further trained based on the right eye fundus photograph for the second photographer.
  • the parameters of the cerebral aneurysm prediction model using the fundus picture as input are updated in a direction in which the cost function of the brain aneurysm prediction disease model is minimized.
  • the cost function represents the difference between the result value from the model and the actual result value. Updates of these parameters are commonly referred to as optimization.
  • parameter optimization may be performed through adaptive moment estimation (ADAM), but is not limited thereto, and various gradient discents such as Momentum, NAG (Nesterov Accelerated Gradient), Adagrad (Adaptive Gradient), RMSProp, etc. It can also be carried out in a manner.
  • ADAM adaptive moment estimation
  • various gradient discents such as Momentum, NAG (Nesterov Accelerated Gradient), Adagrad (Adaptive Gradient), RMSProp, etc. It can also be carried out in a manner.
  • the learning process for the convolution layer and the fully connected layer consists of three steps: bias calucation, error back propagation, and weight update.
  • the pooling layer since the pooling layer has no weight assigned to the connecting line, it consists of only two steps: forward calculation and error back propagation. This is a learning process that is commonly used for the learning model of the CNN structure, so a detailed description is omitted.
  • the brain aneurysm prediction model of FIG. 3 is learned to enhance the brain aneurysm prediction ability. Specifically, in the cerebral aneurysm prediction model of FIG. 3, a fundus picture included in a plurality of training samples is input, and features for predicting cerebral aneurysm are extracted from the fundus picture of the sample, and then the fundus picture is input based on the characteristic. Learning to classify into a group of cerebral aneurysms or a group of non-brain aneurysms.
  • the apparatus for predicting cerebral aneurysm 1000 may determine whether the subject is a patient with cerebral aneurysm by applying a monocular fundus photograph of the subject to the learned brain aneurysm prediction model 1.
  • FIG. 5 is a flowchart illustrating a process of determining a cerebral aneurysm using the model of FIG. 3 according to an embodiment of the present invention.
  • a fundus photograph of a subject is acquired.
  • the fundus photograph of the subject may be taken by a fundus camera.
  • the fundus camera may be electrically connected to the brain aneurysm prediction apparatus 1000 to enable wired/wireless communication.
  • the data acquisition unit 10 of the cerebral aneurysm prediction apparatus 1000 acquires fundus photo data taken by the fundus camera do.
  • the data acquisition unit 10 provides a monocular fundus photograph of the subject to the prediction unit 50.
  • provision of a monocular fundus photograph may be performed in various ways.
  • the data acquisition unit 10 may acquire a monocular fundus photograph.
  • the data acquisition unit 10 filters the binocular fundus photograph to provide a monocular fundus photograph to the predictor 50.
  • the data acquisition unit 10 may further provide the prediction unit 50 with data related to fundus photos, such as a subject's identity (eg, including a name, age, identifier, etc.).
  • a subject's identity eg, including a name, age, identifier, etc.
  • the prediction unit 50 applies a monocular fundus photograph of the subject to the cerebral aneurysm prediction model 1.
  • the cerebral aneurysm prediction model 1 classifies the fundus image into a cerebral aneurysm group or a non-disease group. If the fundus photograph is classified as a group of cerebral aneurysms, it is determined that the subject of the fundus photograph has a cerebral aneurysm (ie, the subject of the fundus photograph is a cerebral aneurysm disease).
  • the cerebral aneurysm prediction apparatus 1000 may provide a prediction result of the prediction unit 50 to the user.
  • the subject's body may be safer.
  • the cerebral aneurysm prediction apparatus 1000 may include other components not described herein.
  • the cerebral aneurysm prediction device 1000 includes a network interface, an input device for data entry, and an output device for display, printing, or other data display, and other hardware elements required for the operations described herein. It may include.
  • FIG. 6 is a diagram for explaining the structure of a brain aneurysm prediction model according to a second embodiment of the present invention.
  • the structure of the brain aneurysm prediction model 2 according to the second embodiment of the present invention is substantially similar to the structure of the brain aneurysm prediction model according to the first embodiment of FIG. 3, differences will be mainly described.
  • the brain aneurysm prediction model 2 includes a first input layer 310A, a first feature extraction layer 330A, a second input layer 310B, and a second feature extraction layer 330B and classification layer 350. Also, a combination layer 340 that combines the output value of the first feature extraction layer 330A with the second feature extraction layer 330B may be included.
  • the cerebral aneurysm prediction model (2) is trained by receiving both fundus photos.
  • the fundus photograph of the first eye eg, the left eye
  • features are extracted through the first input layer 310A and the first feature extraction layer 330A
  • the second eye of the binocular eye eg, the right eye
  • the fundus picture for the feature is output through the second input layer 310B and the second feature extraction layer 330B.
  • the first feature extraction layer 330A and the second feature extraction layer 330B may have the same structure as in FIG. 4A described above.
  • the feature value for the first one output from the first feature extraction layer 330A is a feature map having a size of 1x1x2048, that is, a feature vector is output, and the feature for the second feature output from the second feature extraction layer 330B.
  • the value is a feature map of size 1x1x2048, that is, a feature vector is output.
  • the combining layer 340 combines the feature values for the first draft and the feature values for the second draft before inputting the extracted features into the classification layer 350.
  • the combining of the combining layer 340 is a combination different from the element-by-element combination of the feature map performed in the residual bottleneck block, and the feature vector output from the first feature extraction layer 330A as shown in FIG. 6.
  • the feature vector output from the second feature extraction layer 330B is performed by vector-concatenation processing.
  • the classification layer 350 classifies the ocular fundus photograph into a cerebral aneurysm group and a non-cerebral aneurysm group by receiving the combined feature values from the combining layer 340.
  • the cerebral aneurysm prediction model 2 machine-learns the parameters of the feature extraction layers 330A, 330B and/or the classification air 350 using a training sample including a fundus photograph of both eyes. Learning of the brain aneurysm prediction model 2 having the structure of FIG. 7 is similar to learning of the brain aneurysm prediction model 1 of the first embodiment, so a detailed description thereof will be omitted.
  • the cerebral aneurysm prediction apparatus 1000 determines whether the subject is a patient with a cerebral aneurysm by applying a photograph of the subject's binocular fundus to the previously learned brain aneurysm prediction model 2 of FIG. 7.
  • step S610 the data acquisition unit 10 acquires a binocular fundus photograph of the subject.
  • the subject identification information may be further obtained.
  • step S630 the prediction unit 50 applies a photo of the both eyes of the subject to the brain aneurysm prediction model 2 of FIG.
  • the prediction unit 50 inputs a fundus picture for the first eye among the subject's binocular fundus photos as the first input layer 310A, and inputs a fundus photo for the second eye into the second input layer 310B.
  • the cerebral aneurysm prediction model 2 determines whether a subject's binocular fundus photograph is classified into a cerebral aneurysm group based on feature values extracted from the binocular fundus photograph.
  • step S650 if it is determined that the binocular fundus photograph is classified into the brain aneurysm prediction group, the prediction unit 50 determines that the subject of the binocular fundus photograph has a cerebral aneurysm.
  • FIG. 7 is a diagram illustrating prediction results using a binocular fundus photograph according to an embodiment of the present invention.
  • the cerebral aneurysm prediction apparatus 1000 applies a binocular fundus photograph of the subject X, which is an actual cerebral aneurysm disease, to the cerebral aneurysm prediction model 2, the subject X becomes a cerebro aneurysm disease The determined result can be obtained.
  • the cerebral aneurysm prediction apparatus 1000 applies a binocular fundus photograph of the subject Y, who is a non-encephalopathic patient, to the cerebral aneurysm prediction model 2, it is possible to obtain a result of determining the subject Y as normal. have.
  • FIGS. 3 and 6 are diagrams for explaining the performance of the models of FIGS. 3 and 6 according to experimental examples of the present invention.
  • the ratio of the fundus photo and the normal fundus photo of a cerebral aneurysm disease was set to 1:1, and then learning was performed using a monocular fundus photo. After setting the ratio of 1:1, the study was performed using a binocular fundus photograph, and in the third experimental example, after setting the ratio of the fundus photograph and normal fundus photograph of a cerebral aneurysm disease patient to 1:2, the binocular fundus photograph was taken. I learned using it. That is, the first experimental example is related to the model of FIG. 3, and the second and third experimental examples are related to the model of FIG. 6.
  • Cross-validation is a verification method that ensures that all data is used as a test set at least once. It is a verification method that divides the data into multiple groups and then modifies the test set each time to evaluate the performance of the training model.
  • the training sample was divided into 5 folds to verify, and the first to fourth folds were training samples (ie, training data) with 572 fundus photos (286 aneurysms, 286 normals), and the subject's fundus photos. (I.e., test data) was set to 144, and the fifth fold was set to 576 sample fundus images for training (aneurysm 288, normal 288), and 140 subjects' fundus photos.
  • training samples ie, training data
  • 572 fundus photos 286 aneurysms, 286 normals
  • test data was set to 144
  • the fifth fold was set to 576 sample fundus images for training (aneurysm 288, normal 288), and 140 subjects' fundus photos.
  • the learning results according to the first to third experimental examples were derived as quantitative results through the following four evaluation methods: ROC AUC (Receiver Operating Characteristic Area Under Curve), ACC (Accuracy), Se (Sensitivity), Sp (Specificity).
  • both the brain aneurysm prediction model 1 trained using monocular fundus photography and the brain aneurysm prediction model 2 trained using binocular fundus photography have an ROC AUC of approximately 97 to 99%.
  • a brain aneurysm prediction model (1) trained using monocular fundus photography has an ACC of approximately 90%
  • a brain aneurysm prediction model (2) trained using binocular fundus photography requires at least 80% ACC.
  • the brain aneurysm prediction models 1 and 2 learned using the fundus photograph according to the present invention have excellent cerebral aneurysm prediction performance. This is a better result when a human doctor considers that an aneurysm cannot be predicted by a fundus picture, as screening tests such as invasive or high-radiation use were previously required to diagnose cerebral aneurysms.
  • the operation by the apparatus and method for predicting cerebral aneurysms may be implemented, at least in part, by a computer program and recorded in a computer-readable recording medium.
  • a computer program for example, implemented with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor for performing any or all of the steps, operations, or procedures described.
  • the computer may be a desktop computer, a laptop computer, a laptop, a smart phone, or a computing device such as the like, or it may be any device that may be integrated.
  • a computer is a device with one or more alternative, special-purpose processors, memory, storage space, and networking components (either wireless or wired).
  • the computer may, for example, run an operating system such as Microsoft's Windows compatible operating system, Apple OS X or iOS, Linux distribution, or Google's Android OS.
  • the computer-readable recording medium includes all types of record identification devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage identification devices. In addition, the computer readable recording medium may be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment will be readily understood by those skilled in the art to which this embodiment belongs.
  • a device for predicting cerebral aneurysm is a non-invasive and non-invasive and one of the fourth industrial technology using machine learning, which is different from the conventional aneurysm-based inspection-oriented brain aneurysm prediction technology. Predictable. As a result, cerebral aneurysms can be predicted more safely than conventional cerebral aneurysms.
  • cerebral aneurysms can be predicted using fundus photography.
  • the retina fundus of the eye is a film-like tissue of a camera that recognizes real light, and a fundus camera can be used to easily obtain a fundus picture.
  • Fundus cameras do not require invasive treatment, do not use radiation, and have a short shooting time within minutes. Fundus examination using such a fundus camera is very inexpensive (current insurance price is 7990 won, general price is 20770 won).
  • fundus cameras are not only distributed to almost all ophthalmology clinics and ophthalmology clinics, but also have a large number of examination centers, making them excellent in accessibility and dissemination.
  • fundus photography provides optic nerve papilla, retina, and choroidal blood vessels (arteries, veins, capillaries, etc.) at very high resolution. Due to the tissue characteristics of the retinal fundus that can directly observe blood vessels in the retina, fundus photography is the latest self It has dozens of times the resolution of vascular resolution of resonance imaging equipment.
  • the present invention suggests the possibility of determining cerebrovascular abnormality from fundus photography.
  • the optic nerve papilla and the blood vessels of the retina are genetically differentiated parts of the brain and have characteristics similar to those of the brain. In light of this, it is judged that it can open a new horizon in the medical field theory of the relationship between retinal vessel abnormalities and cerebrovascular abnormalities.

Abstract

Embodiments relate to an intracranial aneurysm prediction device and a method by which the intracranial aneurysm prediction device provides an intracranial aneurysm prediction result, the device comprising: a storage unit for storing an intracranial aneurysm prediction model learned in advance; a data acquisition unit for acquiring a fundus photo of a subject; and a prediction unit applying fundus photo data of the subject to the intracranial aneurysm prediction model so as to determine whether the subject has an intracranial aneurysm.

Description

안저 사진을 이용한 뇌동맥류 예측 장치 및 뇌동맥류 예측 결과 제공 방법Apparatus for predicting cerebral aneurysm using fundus photography and method for providing results of predicting cerebral aneurysm
본 발명은 안저 사진을 이용하여 뇌동맥류(intracranial aneurysm) 질환을 예측하는 기술에 관한 것으로서, 보다 상세하게는 안저사진에 연관된 샘플 데이터에 기초하여 학습된 뇌동맥류 예측 모델에 환자의 안저사진을 적용하여 상기 환자가 뇌동맥류를 가지고 있는지를 결정하는 뇌동맥류 예측 장치 및 뇌동맥류 예측 결과 제공 방법에 관한 것이다.The present invention relates to a technique for predicting intracranial aneurysm disease using fundus photography, and more specifically, by applying a patient's fundus photography to a predicted model of cerebral aneurysm based on sample data associated with fundus photography The present invention relates to a device for predicting cerebral aneurysm and a method for providing results of predicting cerebral aneurysm to determine whether the patient has a cerebral aneurysm.
[이 발명을 지원한 국가연구개발사업][National research and development project supporting this invention]
본 연구는 분당서울대학교병원의 주관하에 이루어진 것으로서, 연구과제명은 "딥러닝(Deep Learning) 기술을 이용한 안저사진(Fundus photo) 판독의 원천기술의 확보 및 그 응용"이다(연구기간: 2018.11.01.~2021.10.31. 과제고유번호: 2018R1D1A1A09083241).This study was conducted under the supervision of Seoul National University Bundang Hospital, and the research title is "Securing and applying the original technology for reading fundus photo using Deep Learning technology" (Research Period: 2018.11.01 .~2021.10.31.Project unique number: 2018R1D1A1A09083241).
기술의 발달로 인해 인간의 수명이 증가함에 따라, 인구구조가 고령화 사회, 나아가 초고령화 사회로 변화하고 있는 추세이다. 이로 인해, 퇴행성 질환(degenerative disease) 환자가 증가하고 있으며, 사회 경제적인 부담 또한 급격히 증가하고 있다. 이러한 퇴행성 질환은 혈관 질환, 관절 질환 등이 있는데, 혈관 질환은 혈관이란 신체적 구조 특성상 사망 위험이 상대적으로 높고, 수술이 어려우며 후유증 확률도 높은 질환에 속한다. 실제로, 2016년 한국 통계청 자료에 따르면 심장 질환, 뇌혈관질환은 사망원인 2위, 3위에 해당된다. As the life span of humans increases due to the development of technology, the population structure is trending toward an aging society and even an aging society. Due to this, the number of patients with degenerative disease is increasing, and the socio-economic burden is also rapidly increasing. These degenerative diseases include vascular diseases, joint diseases, and the like, and vascular diseases belong to diseases with a high risk of death due to the physical structure characteristics of blood vessels, difficulty in surgery, and high probability of sequelae. Indeed, according to data from the Korea Statistical Office in 2016, heart disease and cerebrovascular disease are the second and third leading causes of death.
뇌동맥류는 뇌혈관 질환 중 하나로서, 머리 속 뇌동맥의 일부에 결손이 생겨 그 부분이 돌출되는 질환이다. 환자가 뇌동맥류에 걸리면, 환자의 뇌혈관 일부가 약한 경우 혈관벽이 늘어나서 꽈리모양으로 불거져 나오게 된다. 뇌동맥의 혈관벽이 얇고, 꽈리 모양과 같이 구조적으로 정상과 다르기 때문에, 뇌동맥류 질환자의 뇌혈관은 쉽게 터질 수 있다. Cerebral aneurysm is one of the cerebrovascular diseases, which is a disease in which a part of the brain artery in the head is formed due to a defect. When a patient has a cerebral aneurysm, when a part of the patient's cerebral blood vessels are weak, the blood vessel walls are stretched and flared out. Because the blood vessel wall of the cerebral artery is thin and structurally different from the normal like a tummy shape, the cerebral blood vessels of a cerebral aneurysm disease can easily burst.
뇌동맥류의 대표적인 질환은, 사망률과 장애율이 가장 높은 질환은 지주막하출혈(subarachnoid hemorrhage)이다. 지주막하출혈 대부분은 뇌혈관 일부가 부풀어 오르는 증상을 가지며, 결국 뇌동맥류(intracranial aneurysm)의 발생을 유발한다. The most common disease of cerebral aneurysms is subarachnoid hemorrhage, which has the highest mortality and disability rates. Most of the subarachnoid hemorrhages have a symptom of swelling of a part of the cerebral blood vessels, which eventually leads to the occurrence of intracranial aneurysm.
일반적으로 미파열성 뇌동맥류는 보통 파열 전에 증상을 일으키지 않고, 단순 CT 상에서는 예측이 불가능한 질환이다. In general, an unruptured cerebral aneurysm usually does not cause symptoms before rupture, and is a disease unpredictable on a simple CT.
현재 통상적으로 실행되는 선별 검사는, 예를 들어, 경피적두개강내혈관조영술(TFCA)와 같은 침습적인 검사, 또는 뇌컴퓨터단층촬영혈관조영술(CT Angio), 자기공명혈관조영술(MRA)와 같은 고방사선 검사 혹은 고가의 영상검사 등을 포함할 수 있다. Screening tests currently commonly performed include, for example, invasive tests such as percutaneous intracranial angiography (TFCA), or high radiation such as brain computed tomography angiography (CT Angio), magnetic resonance angiography (MRA). This may include inspection or expensive imaging.
이러한 현재의 선별 검사는 침습식 검사 및/또는 조영제를 이용하는 검사로서, 침습 및 조영제의 위험으로 인해 피검사자의 건강에 악영향을 미칠 가능성이 있다. This current screening test is an invasive test and/or a test using a contrast agent, and there is a possibility of adversely affecting the health of the test subject due to the risk of the invasion and contrast agent.
또한, 선별 검사를 위해서는 막대한 수의 대상자에게 수행되어야 하며, 이를 위해 소모되는 그 비용 또한 상당하다.In addition, screening tests must be performed on a large number of subjects, and the cost consumed for this is also significant.
지주막하 출혈과 같은 뇌동맥류는 파열 전에 예측하는 경우 예방적인 치료가 가능하다. 그러나, 뇌동맥류는 평소 증상이 거의 발현되지 않아서, 터지지 않은 상태의 미파열성 뇌동맥류를 발견하는 것은 매우 어렵다. 이로 인해, 상술한 침습적인 검사 혹은 고가의 영상검사들을 시행할 사람들을 결정하는 것 또한 어렵다.Brain aneurysms, such as subarachnoid hemorrhage, can be preventively treated if predicted before rupture. However, since cerebral aneurysms rarely develop symptoms, it is very difficult to detect unruptured cerebral aneurysms in an unexploded state. Because of this, it is also difficult to determine who will perform the above-mentioned invasive or expensive imaging tests.
따라서, 뇌동맥류를 가지고 있을 가능성이 높은 사람들을 선별해줄 수 있는 비침습적이고 손쉬운 검사 기술이 요구된다.Therefore, there is a need for a non-invasive and easy examination technique that can screen people who are likely to have cerebral aneurysms.
[선행기술문헌][Advanced technical literature]
[비특허문헌][Non-patent literature]
1. 대한뇌졸증학회 뇌졸증진료지침 비파열뇌동맥류 선별검사 (2013.01.)1. Korean Stroke Society Guidelines for Stroke Treatment Non-ruptured cerebral aneurysm screening (2013.01.)
본 발명의 일 측면에 따르면 상세하게는 안저사진에 연관된 샘플 데이터에 기초하여 학습된 뇌동맥류 예측 모델에 환자의 안저사진을 적용하여 상기 환자가 뇌동맥류를 가지고 있는지를 높은 정확도로 결정할 수 있는 뇌동맥류 예측 장치 및 뇌동맥류 예측 결과 제공 방법을 제공할 수 있다.According to an aspect of the present invention, in detail, a cerebral aneurysm capable of determining with high accuracy whether a patient has a cerebral aneurysm by applying a patient's fundus photograph to a predicted cerebral aneurysm model based on sample data associated with the fundus photograph. It is possible to provide a prediction device and a method for providing a predicted result of a cerebral aneurysm.
본 발명의 일 측면에 따른 프로세서를 포함한 컴퓨팅 장치에 의해 수행되는 뇌동맥류 예측 결과 제공 방법 또는 뇌동맥류 예측(판단) 지원 방법은, 대상자의 안저 사진을 획득하는 단계; 및 상기 대상자의 안저 사진 데이터를 뇌동맥류 예측 모델에 적용하여 상기 대상자가 뇌동맥류를 가지고 있는지 여부를 결정하는 단계;를 포함한다. 여기서, 상기 뇌동맥류 예측 모델은 학습용 안저 사진을 포함하는 복수의 학습용 샘플을 이용하여 입력된 안저 사진을 뇌동맥류 그룹으로 분류하는 능력이 학습된 모델이다.A method for providing a result of predicting cerebral aneurysm performed by a computing device including a processor according to an aspect of the present invention or a method for predicting a brain aneurysm (determination) includes: obtaining a fundus photograph of a subject; And applying the fundus photo data of the subject to a cerebral aneurysm prediction model to determine whether the subject has a cerebral aneurysm. Here, the cerebral aneurysm prediction model is a model in which the ability to classify an input fundus photograph into a cerebral aneurysm group using a plurality of training samples including a learning fundus photograph is learned.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 안저 사진이 입력되는 입력 레이어; 복수의 컨볼루션 레이어 및 풀링 레이어를 포함하며, 상기 입력 레이어의 안저 사진에서 특징을 추출하는 특징 추출 레이어; 및 복수의 노드를 포함한 완전 연결 레이어를 포함하며, 상기 특징에 기초하여 입력된 안저 사진을 뇌동맥류 그룹 또는 비질환 그룹으로 분류하는 분류 레이어를 포함할 수 있다.In one embodiment, the cerebral aneurysm prediction model comprises: an input layer into which a fundus photograph is input; A feature extraction layer including a plurality of convolutional layers and a pooling layer and extracting features from the fundus photo of the input layer; And a complete connection layer including a plurality of nodes, and may include a classification layer that classifies the fundus picture input based on the feature into a cerebral aneurysm group or a non-disease group.
일 실시예에서, 상기 복수의 컨볼루션 레이어 중 적어도 하나는 입력 데이터가 복수의 경로로 진행한 뒤 다시 결합하도록 구성된 잔차 병목 블록(Residual Bottleneck Block)을 포함할 수 있다. In one embodiment, at least one of the plurality of convolutional layers may include a residual bottleneck block configured such that input data proceeds through a plurality of paths and then recombines.
일 실시예에서, 상기 잔차 병목 블록은 복수의 서브 컨볼루션 레이어를 포함하되, 각 서브 컨볼루션 레이어는 컨볼루션 필터가 적용되도록 구성되고, 상기 잔차 병목 블록은 입력 데이터가 제1 경로 및 제2 경로를 통해 진행하고, 상기 제1 경로를 통해 진행한 데이터와 상기 제2 경로를 통해 진행한 데이터가 결합하도록 구성될 수 있다. In one embodiment, the residual bottleneck block includes a plurality of subconvolutional layers, wherein each subconvolutional layer is configured such that a convolution filter is applied, and the residual bottleneck block includes input data having a first path and a second path. It may be configured to proceed through, and the data proceeding through the first path and the data proceeding through the second path are combined.
일 실시예에서, 상기 제1 경로를 통해 진행되는 입력 데이터는 복수의 서브 컨볼루션 레이어를 통과할 수 있다. 여기서, 상기 제1 경로를 통한 입력 데이터가 통과하는 복수의 서브 컨볼루션 레이어 중 적어도 하나는 다른 컨볼루션 필터에 비해 낮은 차원의 데이터를 출력할 수 있다. In one embodiment, input data traveling through the first path may pass through a plurality of sub-convolutional layers. Here, at least one of the plurality of sub-convolution layers through which the input data through the first path passes may output data having a lower dimension than other convolution filters.
일 실시예에서, 상기 잔차 병목 블록은, 입력된 특징맵에 복수의 1×1 크기의 필터를 적용하여 제1 특징맵을 출력하는 제1 서브 컨볼루션 레이어, 제1 서브 컨볼루션 레이어에서 출력된 제1 특징맵에 복수의 3×3 크기의 필터를 적용하여 제2 특징맵을 출력하는 제2 서브 컨볼루션 레이어, 및 제2 서브 컨볼루션 레이어에서 출력된 제2 특징맵에 복수의 1×1 크기의 필터를 적용하여 제3 특징맵을 출력하는 제3 서브 컨볼루션 레이어를 포함할 수 있다. In one embodiment, the residual bottleneck block is output from a first subconvolutional layer and a first subconvolutional layer that output a first featuremap by applying a plurality of 1×1 filters to the input featuremap. A second sub-convolution layer that outputs a second feature map by applying a plurality of 3×3 sized filters to the first feature map, and a plurality of 1×1 to a second feature map output from the second sub-convolution layer A third sub-convolution layer that outputs a third feature map by applying a size filter may be included.
일 실시예에서, 상기 제1 경로를 통한 입력 데이터가 통과하는 복수의 서브 컨볼루션 레이어 중 적어도 하나가 샘플링 데이터를 출력하도록 구성된 경우, 상기 제2 경로를 통해 진행하는 입력 데이터는 상기 제1 경로의 샘플링 데이터에 대응하도록 샘플링 처리될 수 있다. In one embodiment, when at least one of a plurality of sub-convolution layers through which the input data through the first path passes is configured to output sampling data, the input data proceeding through the second path is the Sampling may be performed to correspond to the sampling data.
일 실시예에서, 상기 잔차 병목 블록에서의 데이터 결합은 요소별(element-wise) 덧셈 처리에 의해 수행될 수 있다. In one embodiment, data combining in the residual bottleneck block may be performed by element-wise addition processing.
일 실시예에서, 상기 특징 추출 레이어는 제1 컨볼루션 레이어를 포함할 수 있다. 여기서, 상기 제1 컨볼루션 레이어는 상기 입력 레이어에서 출력된 안저 이미지에 7×7 크기의 필터 64개를 이용하여 제1 특징맵을 출력하도록 구성된다. In one embodiment, the feature extraction layer may include a first convolution layer. Here, the first convolution layer is configured to output a first feature map using 64 7×7 filters on the fundus image output from the input layer.
일 실시예에서, 상기 특징 추출 레이어는 상기 제1 특징맵을 맥스 풀링 처리하도록 구성된 맥스 풀링 레이어를 더 포함할 수 있다. In one embodiment, the feature extraction layer may further include a max pooling layer configured to perform max pooling of the first feature map.
일 실시예에서, 상기 특징 추출 레이어는 제2 내지 제4 컨볼루션 레이어를 더 포함할 수 있다. 여기서, 상기 제2 컨볼루션 레이어 내지 제4 컨볼루션 레이어 중 적어도 하나는 상기 잔차 병목 블록을 포함한다. In one embodiment, the feature extraction layer may further include second to fourth convolution layers. Here, at least one of the second convolution layer to the fourth convolution layer includes the residual bottleneck block.
일 실시예에서, 상기 제2 컨볼루션 레이어 내지 제4 컨볼루션 레이어 중 적어도 하나는 복수의 잔차 병목 블록을 포함할 수 있다. In one embodiment, at least one of the second convolution layer to the fourth convolution layer may include a plurality of residual bottleneck blocks.
일 실시예에서, 상기 잔차 병목 블록이 복수인 경우, 적어도 하나의 잔차 병목 블록은 입력 데이터를 샘플링하여 출력하도록 구성된다. In one embodiment, when there are multiple residual bottleneck blocks, at least one residual bottleneck block is configured to sample and output input data.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 상기 뇌동맥류 예측 모델의 비용 함수를 최소화되는 방향으로 상기 뇌동맥류 예측 모델에 포함된 파라미터를 업데이트하여 학습될 수 있다. 여기서, 상기 비용 함수(loss function)는 뇌동맥류 예측 모델에 안저 사진을 적용한 결과 값과 실제 값과의 차이를 나타낸다. In one embodiment, the cerebral aneurysm prediction model may be learned by updating the parameters included in the cerebral aneurysm prediction model in a direction that minimizes the cost function of the cerebral aneurysm prediction model. Here, the loss function represents the difference between the actual value and the result obtained by applying the fundus photograph to the cerebral aneurysm prediction model.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 단안 안저 사진을 포함한 학습용 샘플을 이용하여 학습될 수 있다. In one embodiment, the cerebral aneurysm prediction model may be trained using a learning sample including a monocular fundus photograph.
일 실시예에서, 상기 대상자의 안저 사진을 획득하는 단계는, 상기 대상자의 양안 안저 사진을 획득한 경우, 단안 안저 사진이 상기 뇌동맥류 예측 모델에 적용되도록 상기 양안 안저 사진을 필터링하는 단계를 더 포함할 수 있다. In one embodiment, the step of acquiring a fundus photograph of the subject further includes filtering the binocular fundus photograph so that the monocular fundus photograph is applied to the model for predicting cerebral aneurysm when the binocular fundus photograph of the subject is obtained. can do.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 양안 안저 사진을 포함한 학습용 샘플을 이용하여 학습될 수 있다. In one embodiment, the cerebral aneurysm prediction model may be trained using a learning sample including a binocular fundus photograph.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 제1 안저 사진이 입력되는 제1 입력 레이어; 상기 제1 안저 사진의 특징을 추출하는 제1 특징 추출 레이어; 제2 안저 사진이 입력되는 제2 입력 레이어; 상기 제2 안저 사진의 특징을 추출하는 제2 특징 추출 레이어; 상기 제1 특징 추출 레이어의 특징 값과 제2 특징 추출 레이어의 특징 값을 결합하도록 구성된 결합 레이어; 및 상기 결합된 특징 값에 기초하여 양안 안저 사진을 뇌동맥류 그룹 또는 비뇌동맥류 그릅으로 분류하는 분류 레이어를 포함할 수 있다. In one embodiment, the cerebral aneurysm prediction model includes: a first input layer into which a first fundus photograph is input; A first feature extraction layer for extracting features of the first fundus picture; A second input layer into which a second fundus photograph is input; A second feature extraction layer for extracting features of the second fundus picture; A combining layer configured to combine the feature values of the first feature extraction layer and the feature values of the second feature extraction layer; And a classification layer for classifying a ocular fundus photograph into a cerebral aneurysm group or a non-cerebral aneurysm group based on the combined feature values.
일 실시예에서, 상기 결합 레이어는 벡터-결합(vector concatenation) 처리하도록 구성될 수 있다. In one embodiment, the combining layer may be configured to handle vector concatenation.
본 발명의 다른 일 측면에 따른 컴퓨터 판독가능 기록매체는 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장할 수 있다. 여기서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 전술한 실시예들에 따른 뇌동맥류 예측 방법을 수행할 수 있다. The computer-readable recording medium according to another aspect of the present invention may store program instructions readable by a computing device and operable by the computing device. Here, when the program instruction is executed by a processor of the computing device, the processor may perform a method for predicting cerebral aneurysm according to the above-described embodiments.
본 발명의 또 다른 일 측면에 따른 안저 사진을 이용하여 뇌동맥류를 예측하는 뇌동맥류 예측 장치는 미리 학습된 뇌동맥류 예측 모델을 저장하는 저장부; 대상자의 안저 사진을 획득하는 데이터 획득부; 및 상기 대상자의 안저 사진 데이터를 상기 뇌동맥류 예측 모델에 적용하여 상기 대상자가 뇌동맥류를 가지고 있는지 여부를 결정하는 예측부를 포함할 수 있다. A brain aneurysm prediction apparatus for predicting a cerebral aneurysm using a fundus photograph according to another aspect of the present invention includes a storage unit for storing a pre-trained brain aneurysm prediction model; A data acquisition unit that acquires a fundus photograph of the subject; And a predictor configured to determine whether the subject has a cerebral aneurysm by applying the fundus photo data of the subject to the cerebral aneurysm prediction model.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 단안 안저 사진이 입력되는 입력 레이어; 상기 입력 레이어의 안저 사진에서 특징을 추출하는 특징 추출 레이어; 및 상기 특징에 기초하여 입력된 안저 사진을 뇌동맥류 그룹 또는 비질환 그룹으로 분류하는 분류 레이어를 포함할 수 있다. In one embodiment, the cerebral aneurysm prediction model comprises: an input layer into which a monocular fundus photograph is input; A feature extraction layer that extracts features from the fundus picture of the input layer; And a classification layer for classifying the fundus picture input based on the feature into a cerebral aneurysm group or a non-disease group.
일 실시예에서, 상기 뇌동맥류 예측 모델은, 제1 안저 사진이 입력되는 제1 입력 레이어; 상기 제1 안저 사진의 특징을 추출하는 제1 특징 추출 레이어; 제2 안저 사진이 입력되는 제2 입력 레이어; 상기 제2 안저 사진의 특징을 추출하는 제2 특징 추출 레이어; 상기 제1 특징 추출 레이어의 특징 값과 제2 특징 추출 레이어의 특징 값을 결합하도록 구성된 결합 레이어; 및 상기 결합된 특징 값에 기초하여 양안 안저 사진을 뇌동맥류 그룹 또는 비질환 그릅으로 분류하는 분류 레이어를 포함할 수 있다.In one embodiment, the cerebral aneurysm prediction model includes: a first input layer into which a first fundus photograph is input; A first feature extraction layer for extracting features of the first fundus picture; A second input layer into which a second fundus photograph is input; A second feature extraction layer for extracting features of the second fundus picture; A combining layer configured to combine the feature values of the first feature extraction layer and the feature values of the second feature extraction layer; And a classification layer for classifying a ocular fundus photograph into a cerebral aneurysm group or a non-disease group based on the combined feature values.
본 발명의 일 측면에 따른 뇌동맥류 예측 장치는 비침습식으로서 피검자에게 위해가 거의 없는 안저사진촬영을 통해서 뇌동맥류 여부를 높은 정확도로 예측할 수 있다. The apparatus for predicting cerebral aneurysm according to an aspect of the present invention is a non-invasive method and can predict whether or not a cerebral aneurysm is performed with high accuracy through fundus photography with little risk to a subject.
안저 사진을 촬영할 수 있는 안저 카메라는 거의 대부분의 안과 의료원에 보급되어 있어 접근성이 높으며, 뇌동맥류 예측을 위해 환자의 신체 상태를 측정하기 위한 별도의 의료 기기를 구비할 필요가 없다. 또한, 안저 사진 촬영은 종래의 뇌동맥류 검사에 비해 비용이 상대적으로 저렴하다. 즉, 검사의 접근성 및 안정성이 매우 높고, 경제적으로도 저렴하다.A fundus camera capable of taking fundus photographs is widely used in most ophthalmology clinics, and thus has high accessibility, and does not need to have a separate medical device for measuring a patient's body condition for predicting cerebral aneurysms. In addition, fundus photography is relatively inexpensive compared to conventional cerebral aneurysm examination. That is, the accessibility and stability of the inspection are very high, and economically low.
또한, 본 발명의 일측면에 따른 뇌동맥류 예측 장치는 종래에는 검사하기 어려운 미파열성 뇌동맥류에 대해서도 예측이 가능하다. In addition, the apparatus for predicting cerebral aneurysm according to an aspect of the present invention is capable of predicting an unruptured cerebral aneurysm that is difficult to test in the related art.
그 결과, 본 발명은 뇌동맥류를 가지고 있을 가능성이 높은 사람들을 선별해줄 수 있는 비침습적이고 손쉬운 검사 기술로 활용될 수 있다. 예를 들어, 현재의 침습식 검사 또는 영상 검사들을 실시하기에 앞서 뇌동맥류 고위험군을 필터링하는데 활용될 수 있다. 따라서, 뇌동맥류 검사가 필요없는 사람에 대하여 소모되는 사회, 경제적인 비용을 경감할 수 있다.As a result, the present invention can be utilized as a non-invasive and easy examination technique that can screen people who are likely to have cerebral aneurysms. For example, it can be used to filter the high-risk group of cerebral aneurysms prior to conducting current invasive or imaging tests. Therefore, it is possible to reduce the social and economic costs consumed by a person who does not need a brain aneurysm test.
나아가, 본 발명에 따른 뇌동맥류 예측 장치는 그 자체로 뇌동맥류 질환자인지 진단하는 장치로 활용될 수 있다. Furthermore, the apparatus for predicting cerebral aneurysm according to the present invention may be used as a device for diagnosing a person with cerebral aneurysm disease.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.BRIEF DESCRIPTION OF DRAWINGS To describe the technical solutions in the embodiments of the present invention or in the prior art more clearly, the drawings required in the description of the embodiments are briefly introduced below. It should be understood that the drawings below are for the purpose of describing the embodiments of the present specification and not for the purpose of limitation. In addition, some elements to which various modifications such as exaggeration and omission are applied may be illustrated in the drawings below for clarity.
도 1은, 본 발명의 일 실시예에 따른, 뇌동맥류 예측 장치의 개략적인 블록도이다. 1 is a schematic block diagram of an apparatus for predicting cerebral aneurysm, according to an embodiment of the present invention.
도 2는 잔차 학습(Residual learning)을 설명하기 위한 도면이다. 2 is a diagram for explaining residual learning.
도 3은, 본 발명의 일 실시예에 따른, 뇌동맥류 예측 모델의 구조를 설명하기 위한 도면이다. 3 is a view for explaining the structure of a brain aneurysm prediction model according to an embodiment of the present invention.
도 4a는, 본 발명의 일 실시예에 따른, 도 3의 뇌동맥류 예측 모델의 세부 구조를 설명하기 위한 도면이다. FIG. 4A is a diagram for explaining a detailed structure of a model for predicting cerebral aneurysm of FIG. 3 according to an embodiment of the present invention.
도 4b는, 본 발명의 일 실시예에 따른, 도 4a의 일부 컨볼루션 레이어를 설명하기 위한 도면이다. 4B is a view for explaining some convolutional layers of FIG. 4A according to an embodiment of the present invention.
도 5는, 본 발명의 일 실시예에 따른, 도 3의 모델을 이용하여 뇌동맥류를 판단하는 과정을 설명하는 흐름도이다. 5 is a flowchart illustrating a process of determining a cerebral aneurysm using the model of FIG. 3 according to an embodiment of the present invention.
도 6은, 본 발명의 제2 실시예에 따른, 뇌동맥류 예측 모델의 구조를 설명하기 위한 도면이다. 6 is a diagram for explaining the structure of a brain aneurysm prediction model according to a second embodiment of the present invention.
도 7은, 본 발명의 일 실험예에 따른, 뇌동맥류 예측 모델의 성능을 설명하기 위한 도면이다. 7 is a view for explaining the performance of the brain aneurysm prediction model according to an experimental example of the present invention.
도 8은, 본 발명의 일 실험예에 따른, 안저 사진의 예측 결과를 도시한 도면이다.8 is a diagram illustrating prediction results of a fundus photograph according to an experimental example of the present invention.
여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is only to refer to a specific embodiment and is not intended to limit the invention. The singular forms used herein also include plural forms unless the phrases clearly indicate the opposite. As used herein, the meaning of “comprising” embodies a particular property, region, integer, step, action, element, and/or component, and the presence or presence of other properties, regions, integers, steps, action, element, and/or component. It does not exclude addition.
다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined differently, all terms including technical terms and scientific terms used herein have the same meaning as those generally understood by those skilled in the art to which the present invention pertains. Commonly used dictionary-defined terms are further interpreted as having meanings consistent with related technical documents and currently disclosed contents, and are not interpreted as ideal or very formal meanings unless defined.
본 명세서에서, 뇌동맥류는 뇌혈관 일부가 부풀어 올라 발생하는 지주막하출혈(subarachnoid hemorrhage)과 같은, 뇌동맥(cerebral arteries)의 이상으로 인해 발생한 질환을 지칭한다. In the present specification, cerebral aneurysm refers to a disease caused by an abnormality in cerebral arteries, such as subarachnoid hemorrhage, which occurs due to swelling of a part of the cerebral blood vessels.
본 명세서에서, 안저 사진(fundus image)은 망막 안저 사진(retinal fundus image)으로 지칭될 수 있다. In this specification, a fundus image may be referred to as a retinal fundus image.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
도 1은, 본 발명의 일 실시예에 따른, 뇌동맥류 예측 장치의 개략적인 블록도이다. 1 is a schematic block diagram of an apparatus for predicting cerebral aneurysm, according to an embodiment of the present invention.
도 1을 참조하면, 뇌동맥류 예측 장치(1000)는 대상자의 안저 사진을 획득하는 데이터 획득부(10); 및 대상자의 안저 사진 데이터를 뇌동맥류 예측 모델에 적용하여 대상자가 뇌동맥류를 가지고 있는지 여부를 결정하는 예측부(50)를 포함한다. 일부 실시예에서, 뇌동맥류 예측 장치(1000)는 뇌동맥류 예측 모델을 모델링하는 학습부(30)를 더 포함할 수도 있다. Referring to FIG. 1, the apparatus for predicting cerebral aneurysm 1000 includes a data acquisition unit 10 that acquires a fundus photograph of a subject; And a prediction unit 50 that determines whether the subject has a cerebral aneurysm by applying the fundus photo data of the subject to the brain aneurysm prediction model. In some embodiments, the cerebral aneurysm prediction apparatus 1000 may further include a learning unit 30 for modeling a brain aneurysm prediction model.
시신경유두와 망막의 혈관은 발생학적으로 뇌의 일부가 분화한 것으로 뇌의 혈관들과 유사한 특징을 가지고 있는 점에 비추어 볼 때, 망막 혈관의 이상과 뇌혈관 이상의 연관성이 있을 가능성이 있다. 즉, 뇌혈관의 이상이 망막 혈관의 이상으로 구현될 수도 있다. 이에 기초하여, 뇌동맥류 예측 장치(1000)는 대상자의 안저 사진을 이용하여 대상자가 뇌동맥류 질환자를 결정할 수 있다. The optic nerve papilla and the blood vessels of the retina are genetically differentiated parts of the brain and have characteristics similar to those of the brain, and there is a possibility that the retinal blood vessel abnormality and the cerebral blood vessel abnormality are related. That is, an abnormality of the cerebral blood vessel may be realized as an abnormality of the retinal blood vessel. Based on this, the apparatus for predicting cerebral aneurysm 1000 may determine a subject with cerebral aneurysm using a fundus photograph of the subject.
실시예들에 따른 뇌동맥류 예측 장치(1000)는 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 뇌동맥류 예측 장치(1000)는 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", "모듈(module)", "장치", 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The cerebral aneurysm prediction apparatus 1000 according to the embodiments may have aspects that are entirely hardware, entirely software, or partially hardware and partially software. For example, the cerebral aneurysm prediction apparatus 1000 may collectively refer to hardware equipped with data processing capability and operating software for driving the hardware. The terms "unit", "module", "device", or "system" in this specification are intended to refer to a combination of hardware and software driven by the hardware. For example, the hardware may be a data processing device including a central processing unit (CPU), a graphics processing unit (GPU), or other processor. Also, the software may refer to a running process, an object, an executable, a thread of execution, a program, or the like.
데이터 획득부(10)는 안저 카메라에 의해 촬영된 대상자의 안저 사진을 수신한다. 상기 안저 카메라는 안저 사진을 획득할 수 있는 다양한 안저 카메라를 포함한다. 예를 들어, 상기 안저 카메라는 산동 안저 카메라, 무산동 안저 카메라, OCT 형(type) 안저 카메라 등을 포함할 수 있다. The data acquisition unit 10 receives a fundus photograph of a subject photographed by the fundus camera. The fundus camera includes various fundus cameras capable of obtaining fundus photos. For example, the fundus camera may include a Shandong fundus camera, a Musandong fundus camera, an OCT type fundus camera, and the like.
일반적으로 안저 사진은 양안 안저 사진 형태로 획득된다. 그러나, 본 발명은 이에 제한되지 않으며, 데이터 획득부(10)는 단안 안저 사진을 획득할 수도 있다. 이 경우, 획득된 단안 안저 사진이 좌안의 안저 사진인지, 우안의 안저 사진인지 여부를 나타내는 라벨링 데이터를 더 획득할 수도 있다. In general, fundus photographs are obtained in the form of binocular fundus photographs. However, the present invention is not limited to this, and the data acquisition unit 10 may acquire a monocular fundus photograph. In this case, the labeling data indicating whether the obtained monocular fundus photograph is the fundus photograph of the left eye or the fundus photograph of the right eye may be further obtained.
또한, 데이터 획득부(10)는 안저 사진과 관련된 데이터를 획득할 수 있다. 예를 들어, 안저 사진과 관련된 데이터는 안저 사진의 대상자를 식별할 수 있는 대상자 식별정보(예컨대, 성명, 신원 정보, 식별자 등)를 포함할 수 있다. Also, the data acquisition unit 10 may acquire data related to the fundus photograph. For example, the data related to the fundus photograph may include subject identification information (eg, name, identity information, identifier, etc.) that can identify the subject of the fundus photograph.
또한, 데이터 획득부(10)는 대상자의 안저 사진 및 안저 사진과 관련된 데이터를 예측부(50)에 제공한다. 예측부(50)에 제공되는 안저 사진은 예측부(50)에서 이용하는 뇌동맥류 예측 모델의 구조에 의존한다. In addition, the data acquisition unit 10 provides the fundus photograph and data related to the fundus photograph of the subject to the prediction unit 50. The fundus photograph provided to the prediction unit 50 depends on the structure of the brain aneurysm prediction model used by the prediction unit 50.
일 실시예에서, 뇌동맥류 예측 모델이 양안 안저 사진을 이용하여 학습된 경우, 데이터 획득부(10)는 대상자의 양안 안저 사진을 예측부(50)에 제공한다. In one embodiment, when the brain aneurysm prediction model is trained using a binocular fundus photograph, the data acquisition unit 10 provides the subject's binocular fundus photograph to the predictor 50.
다른 일 실시예에서, 뇌동맥류 예측 모델이 단안 안저 사진을 이용하여 학습된 경우, 데이터 획득부(10)는 해당 단안 사진을 제공하도록 더 구성될 수 있다. 예를 들어, 뇌동맥류 예측 모델이 좌안 사진을 이용하여 학습된 경우, 양안 사진을 획득한 데이터 획득부(10)는 양안 사진을 필터링하여 좌안 사진만을 예측부(50)에 제공할 수도 있다. In another embodiment, when the brain aneurysm prediction model is trained using a monocular fundus photograph, the data acquisition unit 10 may be further configured to provide a corresponding monocular photograph. For example, when the brain aneurysm prediction model is trained using a left-eye photograph, the data acquisition unit 10 that acquires the binocular photograph may filter the binocular photograph and provide only the left-eye photograph to the predictor 50.
예측부(50)는 대상자의 안저 사진을 뇌동맥류 예측 모델에 적용하여 상기 대상자가 뇌동맥류를 가지고 있는지 여부를 결정한다. 일 실시예에서, 예측부(50)는 학습부(30)에 의해 학습된 상황 판단 모델을 이용하여 대상자가 질환자인지 결정할 수 있다. The predicting unit 50 determines whether the subject has a cerebral aneurysm by applying a fundus photograph of the subject to a brain aneurysm prediction model. In one embodiment, the prediction unit 50 may determine whether the subject is a patient by using a situation determination model learned by the learning unit 30.
다른 일 실시예에서, 예측부(50)는 학습부(30)에서 미리 학습된 상황 판단 모델을 이용하여 대상자가 질환자인지 결정할 수 있다. 이 경우, 미리 학습된 상황 판단 모델은 장치(1000)의 저장 장치(미도시)에 저장될 수 있다. In another embodiment, the prediction unit 50 may determine whether the subject is a patient by using a situation determination model previously learned in the learning unit 30. In this case, the previously learned situation determination model may be stored in a storage device (not shown) of the device 1000.
학습부(30)는 복수의 학습용 샘플을 이용하여 뇌동맥류 여부를 예측하는 뇌동맥류 예측 모델을 학습한다. 각 학습용 샘플은 양안 안저 사진 또는 단안 안저 사진, 뇌동맥류 여부를 나타내는 질환 데이터 등을 포함할 수 있다. 상기 질환 데이터는 뇌동맥류의 참(true), 거짓(false)를 나타내는 이진 라벨로 표현될 수 있다. The learning unit 30 learns a brain aneurysm prediction model for predicting whether or not a cerebral aneurysm exists using a plurality of samples for learning. Each learning sample may include a binocular fundus photograph or a monocular fundus photograph, disease data indicating whether or not a cerebral aneurysm exists. The disease data may be expressed as binary labels representing true and false cerebral aneurysms.
일 실시예에서, 학습부(30)는 도 1에 도시된 바와 같이, 뇌동맥류 예측 장치(1000)에 포함된 구성요소일 수 있다. 그러나, 본 발명은 이에 제한되지 않는다. 다른 일 실시예에서, 학습부(30)는 뇌동맥류 예측 장치(1000)에 원격 위치한 구성요소일 수 있다. 이 경우, 장치(1000)는 원격 위치한 학습부(30)에 의해 미리 생성된 뇌동맥류 예측 모델을 대상자에 대한 뇌동맥류 검사 이전에 수신하여 저장하고, 대상자에 대한 뇌동맥류 검사를 위해 이용할 수 있다. 이 경우, 뇌동맥류 예측 장치(1000)는 미리 생성된 뇌동맥류 예측 모델을 저장하기 위한 저장 장치(미도시)를 더 포함할 수 있다. 예를 들어, 저장 장치는 ROM(Read-only memory), 플래시 메모리, HDD(Hard disk drive) 등을 포함할 수 있다. 또는 뇌동맥류 예측 모델은 클라우드 서버에 저장되고, 장치(1000)는 상기 클라우드 서버와 통신하여 뇌동맥류 예측 모델을 이용하도록 구성될 수도 있다. In one embodiment, the learning unit 30 may be a component included in the brain aneurysm prediction apparatus 1000 as shown in FIG. 1. However, the present invention is not limited to this. In another embodiment, the learning unit 30 may be a component remotely located in the brain aneurysm prediction apparatus 1000. In this case, the apparatus 1000 may receive and store the brain aneurysm prediction model previously generated by the remotely located learning unit 30 prior to the brain aneurysm test on the subject, and use the brain aneurysm test on the subject. In this case, the cerebral aneurysm prediction apparatus 1000 may further include a storage device (not shown) for storing a pre-generated brain aneurysm prediction model. For example, the storage device may include a read-only memory (ROM), a flash memory, and a hard disk drive (HDD). Alternatively, the cerebral aneurysm prediction model may be stored in a cloud server, and the device 1000 may be configured to use the cerebral aneurysm prediction model by communicating with the cloud server.
상기 뇌동맥류 예측 모델은, 하나 이상의 컨볼루션 레이어(convolution layer), 풀링 레이어(pooling layer) 및 최종 판별을 담당하는 완전 연결 레이어(full-connected layer)를 포함하는 CNN(convolutional neural network) 구조로 구성될 수 있다. The cerebral aneurysm prediction model is composed of a convolutional neural network (CNN) structure including at least one convolution layer, a pooling layer, and a full-connected layer responsible for final determination. Can be.
일 실시예에서, 뇌동맥류 예측 모델의 적어도 일부는 잔차 병목 블록(residual bottleneck block)을 포함하도록 구성될 수 있다. In one embodiment, at least a portion of the cerebral aneurysm prediction model may be configured to include a residual bottleneck block.
도 2는 잔차 학습(Residual learning)을 설명하기 위한 도면이다. 2 is a diagram for explaining residual learning.
더 깊은(deeper) 망을 갖는 기계학습 모델이 학습 데이터 속에 존재하는 대표적인 개념을 잘 추출할 수 있어, 기계학습 모델에 포함된 망이 더 깊을수록 학습 결과가 좋아진다. A machine learning model with a deeper network can well extract the representative concepts present in the training data, so the deeper the network included in the machine learning model, the better the learning result.
가중치 레이어들만으로 구성된 종래의 CNN 학습 모델의 경우, 입력이 x이면 하나 이상의 가중치 레이어(weight layer)를 통해 쌓여진 출력(stacked ouput) F(x)가 최종적으로 학습해야할 데이터이다. In the case of a conventional CNN learning model composed of only weight layers, if the input is x, the stacked ouput F(x) through one or more weight layers is data to be finally learned.
그러나, CNN 구조의 망이 단순하게 깊어지면, 학습의 효과가 없어지거나 학습 속도가 아주 느려지고(Vanishing Gradient Problem), 깊은 망 구조를 가짐으로써 파라미터의 수가 비례적으로 늘어난 결과 학습한 데이터에만 최적화되어 학습하지 않은 데이터(즉, test data)에 대한 추론 성능이 악화되는 문제가 있다(Overfitting problem). However, if the network of the CNN structure is simply deep, the effect of learning disappears or the learning speed becomes very slow (Vanishing Gradient Problem), and the number of parameters increases proportionally by having a deep network structure, which is optimized only for the learned data. There is a problem in that inferencing performance for data that is not performed (ie, test data) is deteriorated (Overfitting problem).
잔차 병목 블록은 깊은 구조(deep structure)를 갖는 CNN 기반 모델에 있어 기존의 스택 구조(stacked structure)에 일종의 스킵 연결(skip connection)(또는 숏컷(shortcut) 연결로 지칭됨)을 추가한 구조를 가진다. The residual bottleneck block has a structure in which a type of skip connection (or referred to as a shortcut connection) is added to an existing stacked structure in a CNN-based model having a deep structure. .
잔차 병목 블록에서는 입력이 x이면, 최종적으로 학습해야할 데이터는 H(x)이다. 상기 H(x)는 F(x) + x로서, F(x) = H(x) - x로 표현될 수 있다. 따라서, 잔차 병목 블록은 가중치 레이어를 통해 쌓여진 출력 H(x)와 입력 간의 잔차(residual)를 학습함으로써 결과적으로 원래 학습을 의도한 결과 F(x)를 얻을 수 있다. 이와 같이, 잔차만 학습하면 되는 잔차 학습 블록 구조를 갖는 CNN 모델의 학습은 잔차 학습(residual learning)으로 지칭될 수 있다.In the residual bottleneck block, if the input is x, the data to be finally learned is H(x). The H(x) is F(x) + x, and can be expressed as F(x) = H(x)-x. Accordingly, the residual bottleneck block can learn the residual between the output H(x) and the input stacked through the weighting layer, and as a result, the original learning intended result F(x) can be obtained. As described above, learning of a CNN model having a residual learning block structure that only needs to learn residuals may be referred to as residual learning.
이러한 잔차 병목 블록을 포함한 CNN 모델을 이용할 경우, 깊은 망 구조에서도 쉽게 최적화가 가능하다. 따라서, 상기 잔차 병목 블록 구조에 기반한 뇌동맥류 예측 모델은 깊은 망 구조를 가지고 최적화될 수 있어, 높은 정확성을 가진다. 잔차 병목 블록 구조에 기반한 뇌동맥류 예측 모델의 구조에 대해서는 아래의 도 3 및 도 7 등을 참조하여 보다 상세하게 서술한다. If a CNN model including such a residual bottleneck block is used, it can be easily optimized even in a deep network structure. Therefore, the model for predicting cerebral aneurysm based on the residual bottleneck block structure can be optimized with a deep network structure and has high accuracy. The structure of the brain aneurysm prediction model based on the residual bottleneck block structure will be described in more detail with reference to FIGS. 3 and 7 below.
제1 실시예 Embodiment 1
도 3은, 본 발명의 제1 실시예에 따른, 단안 안저 사진이 적용되는 뇌동맥류 예측 모델의 구조를 설명하기 위한 도면이다. 3 is a diagram for explaining the structure of a model for predicting a brain aneurysm to which a monocular fundus photograph is applied according to a first embodiment of the present invention.
도 3을 참조하면, 뇌동맥류 예측 모델은 입력 레이어(310), 특징 추출 레이어(330), 및 분류 레이어(350)를 포함한다. Referring to FIG. 3, the brain aneurysm prediction model includes an input layer 310, a feature extraction layer 330, and a classification layer 350.
일 실시예에서, 입력 레이어(310)는 학습을 위해 학습용 샘플을 수신하여 안저 이미지를 출력한다. 상기 안저 이미지는 특징 추출 레이어(330)로 전달된다. 예를 들어, 입력 레이어(310)는 512×512 크기의 RGB (즉, 512×512×3) 채널로 구성된 망막 안저 이미지(Retinal Fundus Image)로 출력하도록 구성될 수 있다. In one embodiment, the input layer 310 receives a training sample for learning and outputs a fundus image. The fundus image is transferred to the feature extraction layer 330. For example, the input layer 310 may be configured to output as a retinal fundus image composed of 512×512 RGB (ie, 512×512×3) channels.
일부 실시예에서, 입력 레이어(310)는 강화(augmentation) 처리가 수행되도록 더 구성될 수 있다. 예를 들어, 안저 사진에 대해 보다 강한 학습 결과를 도출하기 위해, 랜덤 플립(random filp), (예컨대, -30° 내지 30° 사이의) 랜덤 로테이션(random rotation), 랜덤 밝기 조정(random brightness adjustment), 랜덤 콘트라스트 조정(random contrast adjustment) 등이 수행될 수 있다. In some embodiments, the input layer 310 may be further configured to perform augmentation processing. For example, to derive stronger learning results for fundus photos, random filp, random rotation (e.g., between -30° and 30°), random brightness adjustment ), random contrast adjustment, etc. may be performed.
특징 추출 레이어(330)는 입력 레이어(310)에서 출력된 출력 이미지로부터 뇌동맥류를 예측하는데 사용될 수 있는 특징들을 추출한다. 상기 특징들은 컨볼루션 필터를 통해 추출된다. The feature extraction layer 330 extracts features that can be used to predict cerebral aneurysms from the output image output from the input layer 310. The above features are extracted through a convolution filter.
특징 추출 레이어(330)는 복수의 컨볼루션 레이어 및 풀링 레이어를 포함한다. 상기 복수의 컨볼루션 레이어 중 적어도 하나는 입력 데이터가 입력 데이터가 스택 구조를 통과하는 경로인 스택 경로, 그리고 스택 구조를 통과하지 않는 숏컷 경로를 통해 처리되도록 구성된 잔차 병목 블록(B)을 포함할 수 있다. The feature extraction layer 330 includes a plurality of convolutional layers and a pooling layer. At least one of the plurality of convolutional layers may include a residual bottleneck block B configured such that input data is processed through a stack path, which is a path through which the input data passes through the stack structure, and a shortcut path that does not pass through the stack structure. have.
일 실시예에서, 잔차 병목 블록(B)은 스택 경로를 통해 진행하는 입력 데이터는 컨볼루션 필터가 적용되도록 모델링된 서브 컨볼루션 레이어를 적어도 하나 통과하여 특징을 추출하도록 (즉, 특징맵을 출력하도록) 구성된다. 상기 데이터의 진행은 경로를 따라 진행함으로써 수행되는 일련의 데이터 처리 과정을 지칭한다. 상기 스택 경로를 통해 처리된 출력 데이터는 숏컷 경로를 통해 진행한 데이터와 결합한다.In one embodiment, the residual bottleneck block (B) is input data going through the stack path to extract features by passing at least one sub-convolution layer modeled so that a convolution filter is applied (that is, output a feature map) ) Is composed. The progress of the data refers to a series of data processing processes performed by proceeding along a path. The output data processed through the stack path is combined with data processed through the shortcut path.
일부 실시예에서, 잔차 병목 블록은 특징 추출 과정에서 스택 경로에 입력된 데이터의 크기가 감소한 경우, 숏컷 경로에 입력된 데이터에 샘플링 필터가 적용되도록 더 구성될 수 있다. 샘플링 필터의 적용으로 인해, 스택 경로를 통해 출력된 데이터와 대응되는 데이터가 숏컷 경로를 통해 출력될 수 있다. 예를 들어, 스택 경로를 통해 출력된 특징맵이 입력된 특징맵 대비 1/2 사이즈인 경우, 숏컷 경로에는 출력된 특징맵과 동일한 사이즈의 특징맵을 출력하는 샘플링 필터가 적용될 수도 있다. In some embodiments, the residual bottleneck block may be further configured to apply a sampling filter to the data input to the shortcut path when the size of the data input to the stack path is reduced in the feature extraction process. Due to the application of the sampling filter, data corresponding to data output through the stack path may be output through the shortcut path. For example, when the feature map output through the stack path is 1/2 size compared to the input feature map, a sampling filter may be applied to the shortcut path to output a feature map of the same size as the output feature map.
샘플링 필터는 스트라이드 동작만을 수행하도록 구성된 필터 또는 스트라이드 동작과 동시에 특징을 추출하도록 구성된 컨볼루션 필터를 포함한다. 상기 예에서, 스택 경로를 통해 출력된 특징맵이 1/2 사이즈로 샘플링된 경우, 샘플링 필터는 2픽셀 간격으로 이동하는 1×1 크기의 샘플링 필터일 수 있다.The sampling filter includes a filter configured to perform only the stride operation or a convolution filter configured to extract features simultaneously with the stride operation. In the above example, when the feature map output through the stack path is sampled in a size of 1/2, the sampling filter may be a 1×1 sized sampling filter that moves at 2 pixel intervals.
도 4a는, 본 발명의 일 실시예에 따른, 도 3의 뇌동맥류 예측 모델의 세부 구조를 설명하기 위한 도면이다. FIG. 4A is a diagram for explaining a detailed structure of a model for predicting cerebral aneurysm of FIG. 3 according to an embodiment of the present invention.
도 4a를 참조하면, 도 3의 뇌동맥류 예측 모델의 특징 추출 레이어(330)는 5개의 컨볼루션 레이어(331, 333, 334, 335, 336), 1개의 맥스 풀링 레이어(332), 1개의 평균 풀링 레이어(337)를 포함할 수 있다. Referring to FIG. 4A, the feature extraction layer 330 of the cerebral aneurysm prediction model of FIG. 3 includes 5 convolutional layers 331, 333, 334, 335, 336, 1 max pooling layer 332, and 1 average A pulling layer 337 may be included.
컨볼루션 레이어(331)는 입력 레이어(310)를 통해 입력된 데이터(예컨대, 512×512×3의 안저 이미지)에 컨볼루션 필터를 적용하여 특징맵을 출력한다. 일 예에서, 컨볼루션 레이어(331)는 7×7 크기의 필터 64개를 2픽셀 간격으로 이동하여 적용함으로써 컨볼루션 레이어(331)의 특징맵을 출력한다. The convolution layer 331 applies a convolution filter to the data input through the input layer 310 (eg, a fundus image of 512×512×3) and outputs a feature map. In one example, the convolutional layer 331 outputs a feature map of the convolutional layer 331 by moving 64 7×7 sized filters at 2 pixel intervals and applying them.
맥스 풀링 레이어(332)는 컨볼루션 레이어(331)에서 출력된 특징맵을 맥스 풀링 처리하도록 구성된다. 일 예에서, 맥스 풀링 레이어(332)는 3×3 크기의 필터를 2픽셀 간격으로 이동하며 적용함으로써 크기가 1/2로 샘플링된 특징맵을 출력한다. The max pooling layer 332 is configured to perform max pooling on the feature map output from the convolution layer 331. In one example, the max pooling layer 332 outputs a feature map sampled in size 1/2 by moving and applying a 3×3 filter at 2 pixel intervals.
컨볼루션 레이어(333)는 맥스 풀링 레이어(332)에서 출력된, 샘플링된 특징맵을 수신하고, 이에 컨볼루션 필터를 적용하여 특징맵을 출력한다. The convolution layer 333 receives the sampled feature map output from the max pooling layer 332, and applies a convolution filter to it to output the feature map.
일 실시예에서, 컨볼루션 레이어(333)는 잔차 병목 블록(B)을 포함한다. 도 4b를 참조하면, 컨볼루션 레이어(333)의 잔차 병목 블록(B)은 입력 데이터가 상기 복수의 서브 레이어를 순차적으로 거치면서 쌓여진 출력(stacking output)을 출력하는 스택 경로, 그리고 입력 데이터가 상기 스택 경로의 출력 데이터와 결합하게 하는 숏컷 경로로 진행하도록 구성된다. 상기 잔차 병목 블록은 스택 경로 상에 위치한 복수의 서브 레이어로서, 입력 데이터에 컨볼루션 필터가 적용되도록 구성된 복수의 서브 레이어를 포함한다. 복수의 서브 레이어 내에서 적어도 하나의 서브 레이어는 다른 서브 레이어에 포함된 컨볼루션 필터에 비해 낮은 차원의 데이터를 출력하는 컨볼루션 필터가 적용되도록 구성된다. In one embodiment, the convolution layer 333 includes a residual bottleneck block (B). Referring to FIG. 4B, the residual bottleneck block B of the convolution layer 333 includes a stack path for outputting a stacking output as input data sequentially passes through the plurality of sub-layers, and input data is the It is configured to proceed with a shortcut path that combines with the output data of the stack path. The residual bottleneck block is a plurality of sub-layers located on a stack path, and includes a plurality of sub-layers configured to apply a convolution filter to input data. Within the plurality of sub-layers, at least one sub-layer is configured to apply a convolution filter that outputs data of a lower dimension than the convolution filter included in the other sub-layer.
도 4b는, 본 발명의 일 실시예에 따른, 컨볼루션 레이어에 포함된 잔차 병목 블록의 구조를 설명하기 위한 도면이다. 4B is a diagram for explaining the structure of a residual bottleneck block included in a convolution layer, according to an embodiment of the present invention.
구체적으로, 도 4b에 도시된 바와 같이, 컨볼루션 레이어(333)의 잔차 병목 블록(B)은 입력된 특징맵에 복수의 (예컨대, 64개) 1×1 크기의 컨볼루션 필터를 적용하여 제1 특징맵을 출력하는 서브 컨볼루션 레이어(3331), 서브 컨볼루션 레이어(3331)에서 출력된 제1 특징맵에 복수의 (예컨대, 64개) 3×3 크기의 필터를 적용하여 제2 특징맵을 출력하는 서브 컨볼루션 레이어(3333), 및 서브 컨볼루션 레이어(3333)에서 출력된 제2 특징맵에 복수의 (예컨대, 128개) 1×1 크기의 컨볼루션 필터를 적용하여 제3 특징맵을 출력하는 서브 컨볼루션 레이어(3335)를 포함한다. 상기 스택 경로의 입력 데이터에는 상기 서브 컨볼루션 레이어(3331, 3333, 3335)가 순차적으로 적용된다. Specifically, as illustrated in FIG. 4B, the residual bottleneck block B of the convolution layer 333 is applied to the input feature map by applying a plurality of (eg, 64) 1×1 size convolution filters. A second feature map by applying a plurality of (e.g., 64) 3×3 size filters to the first feature map output from the sub-convolution layer 3331 and the sub-convolution layer 3331 that output the 1 feature map A third feature map by applying a plurality of (for example, 128) 1×1 convolution filters to the sub-convolution layer 3333 outputting and the second feature map output from the sub-convolution layer 3333 It includes a sub-convolution layer (3335) for outputting. The subconvolution layers 3331, 3333, and 3335 are sequentially applied to the input data of the stack path.
도 4b의 구조를 갖는 컨볼루션 레이어(333)는 1×1 필터를 갖는 서브 컨볼루션 레이어(3331)를 이용하여 데이터의 차원을 감소시킨 이후, 3×3 필터를 갖는 서브 컨볼루션 레이어(3333)를 이용하여 데이터 차원을 증가시킨다. 이와 같이, 3×3 필터를 갖는 서브 컨볼루션 레이어(3333)를 기준으로 줄어든 데이터의 차원이 증가한 후, 다시 줄어드는 현상이 나타나므로, 서브 컨볼루션 레이어(3333)는 병목 레이어(bottleneck layer)로 지칭될 수 있다. The convolution layer 333 having the structure of FIG. 4B reduces the dimension of data by using a subconvolution layer 3331 having a 1×1 filter, and then a subconvolution layer 3333 having a 3×3 filter Use to increase the data dimension. As such, after the dimension of the reduced data is increased based on the subconvolution layer 3333 having a 3×3 filter, the phenomenon of decreasing again appears, so the subconvolution layer 3333 is referred to as a bottleneck layer. Can be.
컨볼루션 레이어(333)는 입력 데이터(즉, 샘플링된 특징맵)가 스택 경로에서 출력된 제3 특징맵과 결합하도록 더 구성된다. 상기 결합은 요소별(element-wise) 덧셈 처리에 의해 수행될 수 있다. The convolution layer 333 is further configured to combine input data (ie, a sampled feature map) with a third feature map output from the stack path. The combining may be performed by element-wise addition processing.
또한, 컨볼루션 레이어(333)는 서브 컨볼루션 레이어에서 출력된 데이터(특징맵)를 대체하도록 더 구성될 수 있다. 일 실시예에서, 컨볼루션 레이어(333)는 활성화 함수 ReLU를 이용하여 특징맵의 특징 값을 대체할 수 있다. ReLU는 0 이하의 입력에 대하여 0을 출력하고, 0을 초과하는 입력에 대하여 선형으로 비례하는 값을 출력하는 함수이다. 이 경우, 컨볼루션 레이어(333)는 스택 경로로 출력된 특징맵과 숏컷 경로로 출력된 특징맵이 결합된 출력 값에 활성화 함수 ReLU를 적용하여 대체값을 출력할 수 있다. 일부 실시예에서, 컨볼루션 레이어(333)는 서브 컨볼루션 레이어(3331, 3333)의 출력 값에도 활성화 함수 ReLU를 적용하도록 더 구성될 수 있다.Also, the convolution layer 333 may be further configured to replace data (feature map) output from the subconvolution layer. In one embodiment, the convolution layer 333 may replace the feature value of the feature map using the activation function ReLU. ReLU is a function that outputs 0 for inputs below 0 and linearly proportional values for inputs above 0. In this case, the convolution layer 333 may output an alternative value by applying an activation function ReLU to an output value in which the feature map output by the stack path and the feature map output by the shortcut path are combined. In some embodiments, the convolution layer 333 may be further configured to apply an activation function ReLU to the output values of the subconvolution layers 3331 and 3333.
컨볼루션 레이어(333)는 특징 추출 과정이 복수회 반복되도록 더 구성될 수 있다. 일부 실시예에서, 컨볼루션 레이어(333)는 복수의 잔차 병목 블록(B)을 포함하여, 특징 추출 과정이 복수회 수행되도록 구성될 수 있다. 예를 들어, 컨볼루션 레이어(333)는 전술한 특징 추출 과정을 3회 반복(iterations)하기 위해 3개의 잔차 병목 블록(B)을 포함할 수 있다. The convolution layer 333 may be further configured such that the feature extraction process is repeated multiple times. In some embodiments, the convolution layer 333 may include a plurality of residual bottleneck blocks B, such that the feature extraction process is performed multiple times. For example, the convolution layer 333 may include three residual bottleneck blocks B to iterate the aforementioned feature extraction process three times.
다른 컨볼루션 레이어(334, 335, 및 336)도 잔차 병목 블록(B)을 포함한다. 상기 잔차 병목 블록도 컨볼루션 필터를 포함한 복수의 서브 레이어를 포함하며, 입력 데이터가 상기 복수의 서브 레이어를 순차적으로 거치면서 쌓여진 출력(stacking output)을 출력하는 스택 경로, 그리고 입력 데이터가 상기 스택 경로의 출력 데이터와 결합하게 하는 숏컷 경로로 진행하도록 구성된다. 다른 컨볼루션 레이어(334, 335, 및 336)에 대해서는 컨볼루션 레이어(333)과의 차이점을 중심으로 서술한다. Other convolutional layers 334, 335, and 336 also include a residual bottleneck block (B). The residual bottleneck block also includes a plurality of sub-layers including a convolution filter, a stack path for outputting a stacking output as input data sequentially passes through the plurality of sub-layers, and the input data is the stack path It is configured to proceed with a shortcut path to combine with the output data of. Other convolutional layers 334, 335, and 336 will be described based on differences from the convolutional layer 333.
다시 도 4a를 참조하면, 일 실시예에서, 컨볼루션 레이어(334)의 잔차 병목 블록(B)은 입력된 특징맵(예컨대, 컨볼루션 레이어(333)에서 출력된 특징맵)에 복수의 (예컨대, 128개) 1×1 크기의 컨볼루션 필터를 적용하여 제1 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3341); 서브 컨볼루션 레이어(3341)에서 출력된 제1 특징맵에 복수의 (예컨대, 128개) 3×3 크기의 컨볼루션 필터를 적용하여 제2 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3343); 및 서브 컨볼루션 레이어(3343)에서 출력된 제2 특징맵에 복수의 (예컨대, 512) 개) 1×1 크기의 컨볼루션 필터를 적용하여 제3 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3345)를 포함할 수 있다. Referring back to FIG. 4A, in one embodiment, the residual bottleneck block B of the convolutional layer 334 includes a plurality of (e.g., featuremaps output from the convolutional layer 333). , 128) Subconvolution layer 341 configured to output a first feature map by applying a 1×1 convolution filter; A sub-convolution layer 3343 configured to output a second feature map by applying a plurality of (eg, 128) 3×3 convolution filters to the first feature map output from the sub-convolution layer 3331; And a subconvolution layer 3345 configured to output a third feature map by applying a plurality of (eg, 512) 1×1 convolution filters to the second feature map output from the subconvolution layer 3333. ).
상기 스택 경로의 입력 데이터에는 상기 서브 컨볼루션 레이어(3341, 3343, 3345)가 순차적으로 적용된다.The subconvolution layers 3331, 3343, and 3345 are sequentially applied to the input data of the stack path.
일 실시예에서, 서브 컨볼루션 레이어 중 하나 이상은 특징맵의 크기를 감소시키도록 더 구성될 수 있다. 따라서, 스택 경로를 통해 출력된 데이터는 샘플링된 데이터일 수도 있다. In one embodiment, one or more of the sub-convolution layers may be further configured to reduce the size of the feature map. Therefore, the data output through the stack path may be sampled data.
예를 들어, 도 4a에 도시된 바와 같이, 서브 컨볼루션 레이어(3341, 3343, 3345) 중에서 서브 컨볼루션 레이어(3341)는 2픽셀 간격으로 컨볼루션 필터가 이동하도록 구성되고, 다른 서브 컨볼루션 레이어(3343, 3345)는 1 픽셀 간격으로 컨볼루션 필터가 이동하도록 구성된다. 이 경우, 서브 컨볼루션 레이어(3341)의 출력 특징맵(도 4a의 64x64)은 입력 특징맵(도 4a의 128x128)에 비해 1/2 크기로 샘플링됨으로써, 컨볼루션 레이어(334)의 스택 경로를 통해서는 샘플링된 특징맵이 출력될 수 있다. For example, as illustrated in FIG. 4A, among the sub-convolution layers 3331, 3343, and 3345, the sub-convolution layer 3331 is configured to move the convolution filter at 2-pixel intervals, and other sub-convolution layers (3343, 3345) is configured so that the convolution filter is moved at intervals of 1 pixel. In this case, the output feature map (64x64 in FIG. 4A) of the sub-convolution layer 3331 is sampled in half the size of the input feature map (128x128 in FIG. 4A), thereby stacking the stack path of the convolution layer 334. The sampled feature map may be output through.
컨볼루션 레이어(334)는 숏컷 경로를 통해 진행하는 입력 데이터가 스택 경로에서 출력된 특징맵(예컨대, 서브 컨볼루션 레이어(3345)의 제3 특징맵)과 결합하도록 구성된다. 상기 결합은 요소별(element-wise) 덧셈 처리에 의해 수행될 수 있다.The convolution layer 334 is configured to combine input data traveling through the shortcut path with a feature map output from the stack path (eg, a third feature map of the subconvolution layer 3345 ). The combining may be performed by element-wise addition processing.
일 실시예에서, 스택 경로를 통해 출력된 데이터(즉, 특징맵)가 샘플링된 경우, 컨볼루션 레이어(334)의 잔차 병목 블록(B)은 숏컷 경로를 통해 진행하는 데이터에 샘플링 필터를 적용하도록 더 구성된다. 상기 샘플링 필터는 스택 경로를 통해 출력된 데이터와 대응되는 데이터가 숏컷 경로를 통해 출력되게 한다. 예를 들어, 샘플링 필터는, 도 4a에 도시된 바와 같이, 서브 컨볼루션 레이어(3341, 3343, 3345) 중에서 서브 컨볼루션 레이어(3341)는 2픽셀 간격으로 컨볼루션 필터가 이동하도록 구성되어 스택 경로를 통해 1/2 크기로 샘플링된 특징맵이 출력되는 경우, 2 픽셀 간격으로 이동하는 1×1 크기의 샘플링 필터일 수 있다. 그 결과, 컨볼루션 레이어(334) 내에서 요소별(element-wise) 덧셈 처리가 가능하다. In one embodiment, when the data output through the stack path (ie, feature map) is sampled, the residual bottleneck block B of the convolution layer 334 applies a sampling filter to the data going through the shortcut path. It is composed more. The sampling filter causes data corresponding to data output through the stack path to be output through the shortcut path. For example, in the sampling filter, as shown in FIG. 4A, the subconvolution layer 3331 among the subconvolution layers 3331, 3343, and 3345 is configured such that the convolution filter moves at 2-pixel intervals, thereby stacking paths. When a feature map sampled at a size of 1/2 is output through, it may be a sampling filter having a size of 1×1 moving at 2 pixel intervals. As a result, element-wise addition processing in the convolution layer 334 is possible.
또한, 컨볼루션 레이어(333)는 서브 컨볼루션 레이어에서 출력된 데이터(특징맵)를 대체하도록 더 구성될 수 있다. 일 실시예에서, 컨볼루션 레이어(334)는 서브 컨볼루션 레이어(3341, 3343)의 출력 값에 활성화 함수 ReLU를 적용하고, 서브 컨볼루션 레이어(3345, 3347)의 결합된 출력 값에 활성화 함수 ReLU를 적용하여 대체값을 출력할 수 있다. Also, the convolution layer 333 may be further configured to replace data (feature map) output from the subconvolution layer. In one embodiment, the convolution layer 334 applies the activation function ReLU to the output values of the subconvolution layers 3331 and 3343, and the activation function ReLU to the combined output values of the subconvolution layers 3345 and 3347. Can be applied to print the replacement value.
컨볼루션 레이어(334)는 특징 추출 과정이 복수회 반복되도록 더 구성될 수 있다. 예를 들어, 컨볼루션 레이어(334)는 특징 추출 과정을 8회 반복(iterations)하기 위해 8개의 잔차 병목 블록을 포함할 수 있다. The convolution layer 334 may be further configured such that the feature extraction process is repeated multiple times. For example, the convolution layer 334 may include 8 residual bottleneck blocks to iterate through the feature extraction process 8 times.
일부 실시예에서, 컨볼루션 레이어(334)가 복수의 잔차 병목 블록을 포함할 경우, 복수의 잔차 병목 블록 중 하나 이상은 입력 특징맵을 샘플링처리하지 않도록 구성될 수 있다. In some embodiments, when the convolution layer 334 includes a plurality of residual bottleneck blocks, one or more of the plurality of residual bottleneck blocks may be configured not to sample the input feature map.
예를 들어, 도 4a에 도시된 바와 같이, 컨볼루션 레이어(334)에 포함된 복수의 잔차 병목 블록 중에서, 특징 추출 과정이 처음 수행되는 잔차 병목 블록에서는 (예컨대, 1×1 크기의 필터가 2픽셀 간격으로 이동함으로써) 스택 경로 및 숏컷 경로를 통해 샘플링된 특징맵이 출력되고, 나머지 잔차 병목 블록에서는 (예컨대, 1×1 크기의 필터가 1픽셀 간격으로 이동함으로써) 스택 경로 및 숏컷 경로를 통해 샘플링되지 않은 특징맵이 출력될 수도 있다. For example, as shown in FIG. 4A, among the plurality of residual bottleneck blocks included in the convolution layer 334, in the residual bottleneck block in which the feature extraction process is first performed (eg, a filter having a size of 1×1 is 2 The feature map sampled through the stack path and the shortcut path is output by moving in pixel intervals, and in the remaining residual bottleneck block (e.g., by moving a filter of size 1×1 in pixel intervals) through the stack path and shortcut path A feature map that is not sampled may be output.
컨볼루션 레이어(335)의 잔차 병목 블록(B)은 입력 특징맵(예컨대, 컨볼루션 레이어(334)에서 출력된 특징맵)에 1×1 크기의 복수의 (예컨대, 256개) 컨볼루션 필터를 적용하여 제1 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3351); 서브 컨볼루션 레이어(3351)에서 출력된 제1 특징맵에 복수의 (예컨대, 256개) 3×3 크기의 컨볼루션 필터를 적용하여 제2 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3353); 및 서브 컨볼루션 레이어(3353)에서 출력된 제2 특징맵에 복수의 (예컨대, 1024개) 1×1 크기의 컨볼루션 필터 를 적용하여 제3 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3355)를 포함할 수 있다.The residual bottleneck block B of the convolution layer 335 uses a plurality of (eg, 256) convolution filters of size 1×1 on the input feature map (eg, feature map output from the convolution layer 334). A sub-convolution layer 3351 configured to apply and output a first feature map; A subconvolution layer 3353 configured to output a second feature map by applying a plurality of (eg, 256) 3×3 convolution filters to the first feature map output from the subconvolution layer 3351; And a sub-convolution layer 3355 configured to output a third feature map by applying a plurality of (eg, 1024) 1×1 convolution filters to the second feature map output from the sub-convolution layer 3335. It may include.
상기 컨볼루션 레이어(335)의 잔차 병목 블록은 숏컷 경로를 통해 진행하는 입력 데이터가 스택 경로에서 출력된 특징맵(예컨대, 서브 컨볼루션 레이어(3355)의 제3 특징맵)과 결합하도록 구성된다.The residual bottleneck block of the convolutional layer 335 is configured to combine input data traveling through the shortcut path with a feature map output from the stack path (eg, a third feature map of the subconvolution layer 3355).
또한, 컨볼루션 레이어(335)는 서브 컨볼루션 레이어에서 출력된 데이터(특징맵)를 대체하도록 더 구성될 수 있다.In addition, the convolution layer 335 may be further configured to replace data (feature map) output from the subconvolution layer.
일 실시예에서, 컨볼루션 레이어(335)에 포함된 잔차 병목 블록(B)의 서브 컨볼루션 레이어 중 적어도 하나는 입력 데이터(즉, 입력 특징맵)를 샘플링하도록 더 구성될 수 있다. 이 경우, 컨볼루션 레이어(335)에 포함된 잔차 병목 블록은 스택 경로를 통해 샘플링된 데이터가 출력되고, 숏컷 경로를 통해 샘플링된 데이터가 출력되도록 더 구성된다. In one embodiment, at least one of the sub-convolution layers of the residual bottleneck block B included in the convolution layer 335 may be further configured to sample input data (ie, input feature map). In this case, the residual bottleneck block included in the convolution layer 335 is further configured such that data sampled through the stack path is output and data sampled through the shortcut path is output.
컨볼루션 레이어(335)는 특징 추출 과정이 복수회 반복되도록 더 구성될 수 있다. 예를 들어, 컨볼루션 레이어(335)는 특징 추출 과정을 64회 반복(iterations)하기 위해 64개의 잔차 병목 블록을 포함할 수 있다.The convolution layer 335 may be further configured such that the feature extraction process is repeated multiple times. For example, the convolution layer 335 may include 64 residual bottleneck blocks to iterate the feature extraction process 64 times.
컨볼루션 레이어(335)는 컨볼루션 레이어(334)의 구성과 유사하므로, 자세한 설명은 생략한다. Since the convolution layer 335 is similar to the configuration of the convolution layer 334, detailed description is omitted.
컨볼루션 레이어(336)의 잔차 병목 블록(B)은 입력 특징맵(예컨대, 컨볼루션 레이어(335)에서 출력된 특징맵)에 1×1 크기의 복수의 (예컨대, 512개) 컨볼루션 필터를 적용하여 제1 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3361); 서브 컨볼루션 레이어(3361)에서 출력된 제1 특징맵에 복수의 (예컨대, 512개) 3×3 크기의 컨볼루션 필터를 적용하여 제2 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3363); 및 서브 컨볼루션 레이어(3363)에서 출력된 제2 특징맵에 복수의 (예컨대, 2048개) 1×1 크기의 컨볼루션 필터를 적용하여 제3 특징맵을 출력하도록 구성된 서브 컨볼루션 레이어(3365)를 포함할 수 있다.The residual bottleneck block B of the convolution layer 336 includes a plurality of (eg, 512) convolution filters of size 1×1 on the input feature map (eg, feature map output from the convolution layer 335). A sub-convolution layer 3401 configured to apply and output a first feature map; A sub-convolution layer 3403 configured to output a second feature map by applying a plurality of (eg, 512) 3×3 convolution filters to the first feature map output from the sub-convolution layer 3161; And a subconvolution layer 3365 configured to output a third feature map by applying a plurality of (eg, 2048) 1×1 convolution filters to the second feature map output from the subconvolution layer 3336. It may include.
상기 컨볼루션 레이어(336)의 잔차 병목 블록(B)은 숏컷 경로를 통해 진행하는 입력 데이터가 스택 경로에서 출력된 특징맵(예컨대, 서브 컨볼루션 레이어(3365)의 제3 특징맵)과 결합하도록 구성된다.The residual bottleneck block (B) of the convolution layer 336 is such that the input data going through the shortcut path is combined with the feature map output from the stack path (eg, the third feature map of the subconvolution layer 3356). It is composed.
또한, 컨볼루션 레이어(336)는 서브 컨볼루션 레이어에서 출력된 데이터(특징맵)를 대체하도록 더 구성될 수 있다.In addition, the convolution layer 336 may be further configured to replace data (feature map) output from the sub-convolution layer.
일 실시예에서, 컨볼루션 레이어(336)에 포함된 잔차 병목 블록(B)의 서브 컨볼루션 레이어 중 적어도 하나는 입력 데이터(즉, 입력 특징맵)를 샘플링하도록 더 구성될 수 있다. 이 경우, 컨볼루션 레이어(336)에 포함된 잔차 병목 블록(B)은 스택 경로를 통해 샘플링된 데이터가 출력되고, 숏컷 경로를 통해 샘플링된 데이터가 출력되도록 더 구성된다. In one embodiment, at least one of the sub-convolution layers of the residual bottleneck block B included in the convolution layer 336 may be further configured to sample the input data (ie, input feature map). In this case, the residual bottleneck block B included in the convolution layer 336 is further configured such that data sampled through the stack path is output and data sampled through the shortcut path is output.
컨볼루션 레이어(336)는 특징 추출 과정이 복수회 반복되도록 더 구성될 수 있다. 예를 들어, 컨볼루션 레이어(336)는 특징 추출 과정을 3회 반복(iterations)하기 위해 3개의 잔차 병목 블록(B)을 포함할 수 있다.The convolution layer 336 may be further configured such that the feature extraction process is repeated multiple times. For example, the convolution layer 336 may include three residual bottleneck blocks B to iterate the feature extraction process three times.
컨볼루션 레이어(336)는 컨볼루션 레이어(334)의 구성과 유사하므로, 자세한 설명은 생략한다. Since the convolution layer 336 is similar to the configuration of the convolution layer 334, detailed description is omitted.
안저 사진이 전술한 컨볼루션 레이어(331, 333, 334, 335, 336)를 통해 처리되면, 뇌동맥류 여부를 예측할 수 있는 특징이 추출된다. 예를 들어, 특징 추출 레이어(330)에서는 안구 내 디스크(disc) 및 혈관과 관련된 특징이 활성화 함수가 적용되어 활성화된 특징맵(activation map)으로 출력될 수 있다.When the fundus photograph is processed through the aforementioned convolution layers 331, 333, 334, 335, and 336, features capable of predicting whether or not a cerebral aneurysm is extracted are extracted. For example, in the feature extraction layer 330, features related to discs and blood vessels in the eye may be output as an activation map by applying an activation function.
평균 풀링 레이어(337)는 컨볼루션 레이어(336)를 통해 출력된 특징맵을 평균 풀링 처리하여 특징맵을 샘플링한다. 일 예에서, 평균 풀링 레이어(337)는 컨볼루션 레이어(336)에서 16x16크기의 특징맵이 출력되는 경우, 16×16 크기의 필터를 이용하여 평균 풀링 처리하고, 1×1×2048 크기를 갖는 뇌동맥류 특징맵을 출력한다. The average pooling layer 337 samples the feature map by averaging the feature map output through the convolution layer 336. In one example, when the feature map having a size of 16x16 is output from the convolution layer 336, the average pooling layer 337 is averaged using a filter of size 16×16 and has a size of 1×1×2048. The brain aneurysm feature map is output.
분류 레이어(350)는 완전 연결 레이어(full connected layer)(351) 및/또는 확률 레이어(355)를 포함할 수 있다. The classification layer 350 may include a full connected layer 351 and/or a probability layer 355.
완전 연결 레이어(351)는 완전 연결된 복수의 노드로 구성되며, 각 노드는 노드별 가중치에 기초하여 입력 데이터를 출력 데이터로 변환한다. 완전 연결 레이어(351)는 특징 추출 레이어(330)에서 출력된 뇌동맥류 특징맵을 수신하고, 복수의 노드의 가중치에 기초하여 특징 값을 출력한다. The fully connected layer 351 is composed of a plurality of fully connected nodes, and each node converts input data to output data based on the weight for each node. The fully connected layer 351 receives the cerebral aneurysm feature map output from the feature extraction layer 330 and outputs feature values based on weights of a plurality of nodes.
일 실시예에서, 완전 연결 레이어(351)에서 출력되는 특징 값은 두 그룹으로 분류된다. 예를 들어, 완전 연결 레이어(351)에서 1×1×2 크기를 갖는 특징 값이 출력되어 뇌동맥류 그룹 또는 비뇌동맥류 그룹으로 분류된다. In one embodiment, feature values output from the fully connected layer 351 are classified into two groups. For example, a feature value having a size of 1×1×2 is output from the complete connection layer 351 and is classified into a cerebral aneurysm group or a non-cerebral aneurysm group.
확률 레이어(355)는 완전 연결 레이어(351)에서 출력된 출력 값에 기초하여 해당 안저 사진이 뇌동맥류 그룹에 속할 확률을 산출한다. 일 예에서, 확률 레이어(355)는 다음과 같이 표현될 수 있는 소프트맥스(softmax) 수학식에 의해 확률을 산출할 수 있다. The probability layer 355 calculates a probability that the fundus photograph belongs to a group of cerebral aneurysms based on the output value output from the complete connection layer 351. In one example, the probability layer 355 may calculate the probability by a softmax equation that can be expressed as follows.
[수학식 1][Equation 1]
Figure PCTKR2019016849-appb-img-000001
Figure PCTKR2019016849-appb-img-000001
여기서, yk는 k번째 그룹에 속할 확률을 나타낸다. 그리고, n은 완전 연결층(351)에서의 출력층의 노드의 수, e ak는 완전 연결층(351)의 입력 신호 a k의 지수 함수를 나타낸다. Here, yk represents the probability of belonging to the k-th group. And, n is the number of nodes of the output layer in the fully connected layer 351, e ak represents the exponential function of the input signal a k of the fully connected layer 351.
소프트맥스 레이어(355)는 k번째 요소의 값을 전체 요소를 합한 값으로 나누어 0~1 사이의 값을 갖게 되는 확률 값을 산출할 수 있다. The softmax layer 355 may calculate a probability value that has a value between 0 and 1 by dividing the value of the k-th element by the sum of all elements.
분류 레이어(350)는 소프트맥스 레이어(355)에서 산출되는 확률 값에 기초하여 해당 안저 사진이 뇌동맥류를 가진 사람의 안저 사진인지 결정한다. 일 예에서, 뇌동맥류 그룹에 속할 확률(P1)이 0.5 이상인 경우, 해당 안저 사진은 뇌동맥류 그룹으로 분류될 수 있다. 상기 확률에 기초한 분류 방식은 단순한 예시로서, 이에 제한되진 않으며, 다양한 방식에 의한 확률 임계 값을 분류를 위해 이용할 수 있다. 다른 예에서, ROC 커브를 이용하여 획득된 최적 값을 확률 임계 값으로 설정할 수 있다. The classification layer 350 determines whether the fundus picture is a fundus picture of a person with a cerebral aneurysm based on the probability value calculated by the softmax layer 355. In one example, when the probability P1 of belonging to the cerebral aneurysm group is 0.5 or more, the fundus photograph may be classified as a cerebral aneurysm group. The classification method based on the probability is a simple example and is not limited thereto, and a probability threshold value by various methods may be used for classification. In another example, an optimal value obtained using the ROC curve may be set as a probability threshold.
상기 수학식 1은 단순한 예시로서, 상기 확률 (P1)은 다른 소프트맥스 수학식 등에 의해 산출될 수도 있다. Equation 1 is a simple example, and the probability P1 may be calculated by another Softmax equation.
학습부(30)는 도 3의 뇌동맥류 예측 모델의 파라미터들을 학습에 따라 업데이트한다. 구체적으로, 복수의 학습용 샘플에 포함된 안저 사진을 뇌동맥류 예측 모델에 입력하여 해당 안저 사진을 분류하고, 상기 분류 결과(즉, 모델 적용 결과)와 학습용 샘플에 포함된 질환 데이터(즉, 실제 결과)와 비교하여 오차를 줄여나가도록 파라미터를 업데이트한다. 이러한 과정을 통해, 특징 추출 레이어(330)(예컨대, 컨볼루션 레이어) 및/또는 분류 레이어(350)(예컨대, 완전 연결 레이어)가 학습된다. The learning unit 30 updates parameters of the cerebral aneurysm prediction model of FIG. 3 according to learning. Specifically, the fundus photographs included in the plurality of training samples are input to the cerebral aneurysm prediction model to classify the fundus photographs, and the classification results (ie, model application results) and disease data included in the training samples (ie, actual results) ) To update the parameter to reduce the error. Through this process, the feature extraction layer 330 (eg, a convolutional layer) and/or the classification layer 350 (eg, a fully connected layer) are learned.
학습부(30)는 학습용 샘플을 이용하여 단안 안저 사진에 기초하여 뇌동맥류 여부를 판단하는 도 3의 뇌동맥류 예측 모델을 모델링한다. 여기서 학습용 샘플은 단안 안저 사진으로서, 좌안 안저 사진 또는 우안 안저 사진을 포함한다.The learning unit 30 models the brain aneurysm prediction model of FIG. 3, which determines whether a cerebral aneurysm is based on a monocular fundus photograph using a learning sample. Here, the learning sample is a monocular fundus photograph, and includes a left-eye fundus photograph or a right-eye fundus photograph.
일부 실시예에서, 샘플을 위해 특정 촬영자로부터 좌안 및 우안 안저 사진을 획득한 경우, 특정 촬영자의 각각의 안저 사진이 학습용 샘플로 모두 이용되지 않는다. 예를 들어, 특정 촬영자에 대한 좌안 안저 사진에 기초하여 뇌동맥류 예측 모델이 학습된 경우, 동일한 특정 촬영자에 대한 우안 안저 사진에 기초하여 뇌동맥류 예측 모델이 더 학습되지 않는다. 그러나, 상기 예에서, 도 3의 뇌동맥류 예측 모델을 학습하는데 있어서, 특정 유형의 단안 안저 사진으로 제한되진 않는다. 제1 촬영자에 대한 좌안 안저 사진에 기초하여 뇌동맥류 예측 모델이 학습된 경우, 제2 촬영자에 대한 우안 안저 사진에 기초하여 뇌동맥류 예측 모델이 더 학습될 수도 있다.In some embodiments, when a left eye and a right eye fundus photograph are acquired from a specific photographer for a sample, each fundus photograph of a particular photographer is not used as a learning sample. For example, when a model for predicting a brain aneurysm based on a left eye fundus photograph for a specific photographer is trained, a model for predicting a brain aneurysm based on a right eye fundus photograph for a specific photographer is not further trained. However, in the above example, in learning the brain aneurysm prediction model of FIG. 3, it is not limited to a particular type of monocular fundus photograph. If the brain aneurysm prediction model is learned based on the left eye fundus photograph for the first photographer, the brain aneurysm prediction model may be further trained based on the right eye fundus photograph for the second photographer.
안저 사진을 입력으로 하는 뇌동맥류 예측 모델의 파라미터는 뇌동맥류 예측 질환 모델의 비용 함수가 최소화되는 방향으로 업데이트된다. 여기서, 비용 함수는 모델에서 내놓는 결과 값과 실제 결과 값의 차이를 나타낸다. 이러한 파라미터의 업데이트는 통상적으로 최적화로 지칭된다. 일 예에서, 파라미터 최적화는 ADAM(Adaptive Moment Estimation)을 통해 수행될 수 있으나, 이에 제한되지 않으며, Momentum, NAG(Nesterov Accelerated Gradient), Adagrad(Adaptive Gradient), RMSProp 등과 같은 다양한 경사 하강(gradient discent) 방식에 의해 수행될 수도 있다. The parameters of the cerebral aneurysm prediction model using the fundus picture as input are updated in a direction in which the cost function of the brain aneurysm prediction disease model is minimized. Here, the cost function represents the difference between the result value from the model and the actual result value. Updates of these parameters are commonly referred to as optimization. In one example, parameter optimization may be performed through adaptive moment estimation (ADAM), but is not limited thereto, and various gradient discents such as Momentum, NAG (Nesterov Accelerated Gradient), Adagrad (Adaptive Gradient), RMSProp, etc. It can also be carried out in a manner.
컨볼루션 레이어 및 완전 연결 레이어에 대한 학습 과정은 전향 계산(bias calucation), 오류 역전파, 가중치 업데이트의 3단계로 구성된다. 반면, 풀링 레이어는 연결선에 가중치가 할당되어 있지 않으므로, 전향 계산과 오류 역전파의 두 단계로만 구성된다. 이는 CNN 구조의 학습 모델에 대해 통상적으로 사용되는 학습 과정이므로, 자세한 설명은 생략한다.The learning process for the convolution layer and the fully connected layer consists of three steps: bias calucation, error back propagation, and weight update. On the other hand, since the pooling layer has no weight assigned to the connecting line, it consists of only two steps: forward calculation and error back propagation. This is a learning process that is commonly used for the learning model of the CNN structure, so a detailed description is omitted.
결국, 도 3의 뇌동맥류 예측 모델의 뇌동맥류 예측 능력이 강화되도록 학습된다. 구체적으로, 도 3의 뇌동맥류 예측 모델은 복수의 학습용 샘플에 포함된 안저 사진이 입력 받고, 상기 샘플의 안저 사진으로부터 뇌동맥류 예측을 위한 특징을 추출한 뒤, 상기 특징에 기초하여 입력된 안저 사진을 뇌동맥류 그룹 또는 비뇌동맥류 그룹으로 분류하는 것에 대해 학습된다. 뇌동맥류 예측 장치(1000)는 이와 같이 학습된 뇌동맥류 예측 모델(1)에 대상자의 단안 안저 사진을 적용하여 대상자가 뇌동맥류 질환자인지 결정할 수 있다. Eventually, the brain aneurysm prediction model of FIG. 3 is learned to enhance the brain aneurysm prediction ability. Specifically, in the cerebral aneurysm prediction model of FIG. 3, a fundus picture included in a plurality of training samples is input, and features for predicting cerebral aneurysm are extracted from the fundus picture of the sample, and then the fundus picture is input based on the characteristic. Learning to classify into a group of cerebral aneurysms or a group of non-brain aneurysms. The apparatus for predicting cerebral aneurysm 1000 may determine whether the subject is a patient with cerebral aneurysm by applying a monocular fundus photograph of the subject to the learned brain aneurysm prediction model 1.
도 5는, 본 발명의 일 실시예에 따른, 도 3의 모델을 이용하여 뇌동맥류를 판단하는 과정을 설명하는 흐름도이다. 5 is a flowchart illustrating a process of determining a cerebral aneurysm using the model of FIG. 3 according to an embodiment of the present invention.
단계(S610)에서, 대상자의 안저 사진을 획득한다. 대상자의 안저 사진은 안저 카메라에 의해 촬영될 수 있다. 안저 카메라는 뇌동맥류 예측 장치(1000)와 유/무선 통신 가능하도록 전기적으로 연결될 수 있다. In step S610, a fundus photograph of a subject is acquired. The fundus photograph of the subject may be taken by a fundus camera. The fundus camera may be electrically connected to the brain aneurysm prediction apparatus 1000 to enable wired/wireless communication.
일 실시예에서, 안저 카메라가 외부에 결합되거나, 또는 원격 위치하여 전기적으로 통신가능하도록 구성된 경우, 뇌동맥류 예측 장치(1000)의 데이터 획득부(10)는 안저 카메라가 촬영한 안저 사진 데이터를 획득한다. In one embodiment, when the fundus camera is externally coupled or configured to be electrically communicable by remote location, the data acquisition unit 10 of the cerebral aneurysm prediction apparatus 1000 acquires fundus photo data taken by the fundus camera do.
데이터 획득부(10)는 대상자의 단안 안저 사진을 예측부(50)에 제공한다. 상기 과정에서 단안 안저 사진의 제공은 다양하게 수행될 수도 있다. 일 예에서, 데이터 획득부(10)는 단안 안저 사진을 획득할 수 있다. 다른 일 예에서, 안저 카메라에 의해 양안 안저 사진이 촬영되고 양안 안저 사진을 수신한 경우, 데이터 획득부(10)는 양안 안저 사진을 필터링하여 단안 안저 사진을 예측부(50)에 제공한다. The data acquisition unit 10 provides a monocular fundus photograph of the subject to the prediction unit 50. In the above process, provision of a monocular fundus photograph may be performed in various ways. In one example, the data acquisition unit 10 may acquire a monocular fundus photograph. In another example, when a binocular fundus photograph is taken by the fundus camera and a binocular fundus photograph is received, the data acquisition unit 10 filters the binocular fundus photograph to provide a monocular fundus photograph to the predictor 50.
일부 실시예에서, 데이터 획득부(10)는 대상자의 신원(예컨대, 성명, 나이, 식별자 등을 포함함) 등과 같은 안저 사진에 연관된 데이터를 예측부(50)에 더 제공할 수 있다.In some embodiments, the data acquisition unit 10 may further provide the prediction unit 50 with data related to fundus photos, such as a subject's identity (eg, including a name, age, identifier, etc.).
그러면, 단계(S650)에서, 예측부(50)는 대상자의 단안 안저 사진을 뇌동맥류 예측 모델(1)에 적용한다. 뇌동맥류 예측 모델(1)은 해당 안저 사진을 뇌동맥류 그룹 또는 비질환 그룹으로 분류한다. 해당 안저 사진이 뇌동맥류 그룹으로 분류된 경우, 안저 사진의 대상자가 뇌동맥류를 가지고 있다고 (즉, 안저 사진의 대상자를 뇌동맥류 질환자로) 결정한다. Then, in step S650, the prediction unit 50 applies a monocular fundus photograph of the subject to the cerebral aneurysm prediction model 1. The cerebral aneurysm prediction model 1 classifies the fundus image into a cerebral aneurysm group or a non-disease group. If the fundus photograph is classified as a group of cerebral aneurysms, it is determined that the subject of the fundus photograph has a cerebral aneurysm (ie, the subject of the fundus photograph is a cerebral aneurysm disease).
추가적으로, 뇌동맥류 예측 장치(1000)는 예측부(50)의 예측 결과를 사용자에게 제공할 수도 있다. Additionally, the cerebral aneurysm prediction apparatus 1000 may provide a prediction result of the prediction unit 50 to the user.
상기 뇌동맥류 예측 모델(1)을 이용하면, 대상자가 미파열성 뇌동맥류를 가지고 있는지 여부도 예측할 수 있다. 특히, 예측 과정에서 침습식 검사가 수행되지 않으므로, 대상자의 신체는 보다 안전할 수 있다. Using the brain aneurysm prediction model 1, it is also possible to predict whether the subject has an unruptured cerebral aneurysm. In particular, since the invasive test is not performed in the prediction process, the subject's body may be safer.
상기 뇌동맥류 예측 장치(1000)가 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 뇌동맥류 예측 장치(1000)는 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be apparent to those skilled in the art that the cerebral aneurysm prediction apparatus 1000 may include other components not described herein. For example, the cerebral aneurysm prediction device 1000 includes a network interface, an input device for data entry, and an output device for display, printing, or other data display, and other hardware elements required for the operations described herein. It may include.
제2 실시예Example 2
도 6은, 본 발명의 제2 실시예에 따른, 뇌동맥류 예측 모델의 구조를 설명하기 위한 도면이다. 6 is a diagram for explaining the structure of a brain aneurysm prediction model according to a second embodiment of the present invention.
본 발명의 제2 실시예에 따른 뇌동맥류 예측 모델(2)의 구조는 도 3의 제1 실시예에 따른 뇌동맥류 예측 모델의 구조와 상당 부분 유사하므로, 차이점을 위주로 설명한다.Since the structure of the brain aneurysm prediction model 2 according to the second embodiment of the present invention is substantially similar to the structure of the brain aneurysm prediction model according to the first embodiment of FIG. 3, differences will be mainly described.
도 6을 참조하면, 제2 실시예에 따른 뇌동맥류 예측 모델(2)은 제1 입력 레이어(310A), 제1 특징 추출 레이어(330A), 제2 입력 레이어(310B), 제2 특징 추출 레이어(330B) 및 분류 레이어(350)를 포함한다. 또한, 제1 특징 추출 레이어(330A)의 출력 값과 제2 특징 추출 레이어(330B)를 결합하는 결합 레이어(340)를 포함할 수 있다. Referring to FIG. 6, the brain aneurysm prediction model 2 according to the second embodiment includes a first input layer 310A, a first feature extraction layer 330A, a second input layer 310B, and a second feature extraction layer 330B and classification layer 350. Also, a combination layer 340 that combines the output value of the first feature extraction layer 330A with the second feature extraction layer 330B may be included.
뇌동맥류 예측 모델(2)은 양안 안저 사진을 입력 받아 학습된다. 양안 중 제1안(예컨대, 왼쪽 눈)에 대한 안저 사진은 제1 입력 레이어(310A) 및 제1 특징 추출 레이어(330A)를 통해 특징이 추출되며, 양안 중 제2 안(예컨대, 오른쪽 눈)에 대한 안저 사진은 제2 입력 레이어(310B) 및 제2 특징 추출 레이어(330B)를 통해 특징이 출력된다.The cerebral aneurysm prediction model (2) is trained by receiving both fundus photos. In the fundus photograph of the first eye (eg, the left eye) of both eyes, features are extracted through the first input layer 310A and the first feature extraction layer 330A, and the second eye of the binocular eye (eg, the right eye) The fundus picture for the feature is output through the second input layer 310B and the second feature extraction layer 330B.
일 실시예에서, 제1 특징 추출 레이어(330A) 및 제2 특징 추출 레이어(330B)는 전술한 도 4a와 동일한 구조를 가질 수 있다. 이 경우, 제1 특징 추출 레이어(330A)에서 출력되는 제1 안에 대한 특징 값은 1x1x2048 크기의 특징맵, 즉 특징 벡터가 출력되고, 제2 특징 추출 레이어(330B)에서 출력되는 제2 안에 대한 특징 값은 1x1x2048 크기의 특징맵, 즉 특징 벡터가 출력된다. In one embodiment, the first feature extraction layer 330A and the second feature extraction layer 330B may have the same structure as in FIG. 4A described above. In this case, the feature value for the first one output from the first feature extraction layer 330A is a feature map having a size of 1x1x2048, that is, a feature vector is output, and the feature for the second feature output from the second feature extraction layer 330B. The value is a feature map of size 1x1x2048, that is, a feature vector is output.
결합 레이어(340)는 추출된 특징을 분류 레이어(350)에 입력하기 이전에, 제1안에 대한 특징 값과 제2 안에 대한 특징 값을 결합한다. 일 예에서, 결합 레이어(340)의 결합은 잔차 병목 블록에서 수행되는 특징맵의 요소별 결합과 상이한 결합으로서, 도 6에 도시된 바와 같이 제1 특징 추출 레이어(330A)에서 출력된 특징 벡터와 제2 특징 추출 레이어(330B)에서 출력된 특징 벡터를 벡터 결합(vector-concatenation) 처리에 의해 수행된다. The combining layer 340 combines the feature values for the first draft and the feature values for the second draft before inputting the extracted features into the classification layer 350. In one example, the combining of the combining layer 340 is a combination different from the element-by-element combination of the feature map performed in the residual bottleneck block, and the feature vector output from the first feature extraction layer 330A as shown in FIG. 6. The feature vector output from the second feature extraction layer 330B is performed by vector-concatenation processing.
분류 레이어(350)는 결합 레이어(340)에서 결합된 특징 값을 수신하여 양안 안저 사진을 뇌동맥류 그룹과 비뇌동맥류 그룹으로 분류한다. The classification layer 350 classifies the ocular fundus photograph into a cerebral aneurysm group and a non-cerebral aneurysm group by receiving the combined feature values from the combining layer 340.
뇌동맥류 예측 모델(2)은 양안의 안저 사진을 포함한 학습용 샘플을 이용하여 특징 추출 레이어(330A, 330B) 및/또는 분류 에이어(350)의 파라미터를 기계 학습한다. 도 7의 구조를 갖는 뇌동맥류 예측 모델(2)의 학습은 제1 실시예의 뇌동맥류 예측 모델(1)의 학습과 유사하므로, 자세한 설명은 생략한다. 뇌동맥류 예측 장치(1000)는 미리 학습된 도 7의 뇌동맥류 예측 모델(2)에 대상자의 양안 안저 사진을 적용하여 대상자가 뇌동맥류 질환자인지 결정한다. The cerebral aneurysm prediction model 2 machine-learns the parameters of the feature extraction layers 330A, 330B and/or the classification air 350 using a training sample including a fundus photograph of both eyes. Learning of the brain aneurysm prediction model 2 having the structure of FIG. 7 is similar to learning of the brain aneurysm prediction model 1 of the first embodiment, so a detailed description thereof will be omitted. The cerebral aneurysm prediction apparatus 1000 determines whether the subject is a patient with a cerebral aneurysm by applying a photograph of the subject's binocular fundus to the previously learned brain aneurysm prediction model 2 of FIG. 7.
도 6의 모델을 이용하여 뇌동맥류를 예측하는 과정은 도 5에 도시된 과정과 유사하다. The process of predicting a cerebral aneurysm using the model of FIG. 6 is similar to that of FIG. 5.
우선, 단계(S610)에서, 데이터 획득부(10)는 대상자의 양안 안저 사진을 획득한다. 또는 대상자 식별 정보를 더 획득할 수 있다. First, in step S610, the data acquisition unit 10 acquires a binocular fundus photograph of the subject. Alternatively, the subject identification information may be further obtained.
그러면, 단계(S630)에서, 예측부(50)는 대상자의 양안 안저 사진을 도 6의 뇌동맥류 예측 모델(2)에 적용한다. 예측부(50)는 대상자의 양안 안저 사진 중에서 제1 안에 대한 안저 사진을 제1 입력 레이어(310A)로 입력하고, 제2 안에 대한 안저 사진을 제2 입력 레이어(310B)로 입력한다. 뇌동맥류 예측 모델(2)은 양안 안저 사진으로부터 추출된 특징 값에 기초하여 대상자의 양안 안저 사진이 뇌동맥류 그룹에 분류되는지 여부를 결정한다. Then, in step S630, the prediction unit 50 applies a photo of the both eyes of the subject to the brain aneurysm prediction model 2 of FIG. The prediction unit 50 inputs a fundus picture for the first eye among the subject's binocular fundus photos as the first input layer 310A, and inputs a fundus photo for the second eye into the second input layer 310B. The cerebral aneurysm prediction model 2 determines whether a subject's binocular fundus photograph is classified into a cerebral aneurysm group based on feature values extracted from the binocular fundus photograph.
그리고 단계(S650)에서, 양안 안저 사진이 뇌동맥류 예측 그룹에 분류되는 것으로 결정되면, 예측부(50)는 양안 안저 사진의 대상자가 뇌동맥류가 있다고 결정한다. Then, in step S650, if it is determined that the binocular fundus photograph is classified into the brain aneurysm prediction group, the prediction unit 50 determines that the subject of the binocular fundus photograph has a cerebral aneurysm.
도 7은 본 발명의 일 실시예에 따른, 양안 안저 사진을 이용한 예측 결과를 도시한 도면이다. 7 is a diagram illustrating prediction results using a binocular fundus photograph according to an embodiment of the present invention.
도 7에 도시된 바와 같이, 뇌동맥류 예측 장치(1000)가 실제 뇌동맥류 질환자인 대상자(X)의 양안 안저 사진을 뇌동맥류 예측 모델(2)에 적용하면, 대상자(X)를 뇌동맥류 질환자로 결정한 결과를 얻을 수 있다. 또한, 뇌동맥류 예측 장치(1000)가 뇌동맥류 비질환자인 대상자(Y)의 양안 안저 사진을 뇌동맥류 예측 모델(2)에 적용하면, 대상자(Y)를 정상(normal)으로 결정한 결과를 얻을 수 있다. As shown in FIG. 7, when the cerebral aneurysm prediction apparatus 1000 applies a binocular fundus photograph of the subject X, which is an actual cerebral aneurysm disease, to the cerebral aneurysm prediction model 2, the subject X becomes a cerebro aneurysm disease The determined result can be obtained. In addition, when the cerebral aneurysm prediction apparatus 1000 applies a binocular fundus photograph of the subject Y, who is a non-encephalopathic patient, to the cerebral aneurysm prediction model 2, it is possible to obtain a result of determining the subject Y as normal. have.
실험예Experimental Example
도 8는, 본 발명의 실험예들에 따른, 도 3 및 도 6의 모델의 성능을 설명하기 위한 도면이다. 8 is a diagram for explaining the performance of the models of FIGS. 3 and 6 according to experimental examples of the present invention.
제1 실험예는 뇌동맥류 질환자의 안저 사진과 정상 안저 사진의 비율을 1:1로 설정한 후, 단안 안저 사진을 이용하여 학습하였고, 제2 실험예는 뇌동맥류 질환자의 안저 사진과 정상 안저 사진의 비율을 1:1로 설정한 후, 양안 안저 사진을 이용하여 학습하였고, 제3 실험예는 뇌동맥류 질환자의 안저 사진과 정상 안저 사진의 비율을 1:2로 설정한 후, 양안 안저 사진을 이용하여 학습하였다. 즉, 제1 실험예는 도 3의 모델과 관련되고, 제2 및 제3 실험예는 도 6의 모델과 관련된다.In the first experimental example, the ratio of the fundus photo and the normal fundus photo of a cerebral aneurysm disease was set to 1:1, and then learning was performed using a monocular fundus photo. After setting the ratio of 1:1, the study was performed using a binocular fundus photograph, and in the third experimental example, after setting the ratio of the fundus photograph and normal fundus photograph of a cerebral aneurysm disease patient to 1:2, the binocular fundus photograph was taken. I learned using it. That is, the first experimental example is related to the model of FIG. 3, and the second and third experimental examples are related to the model of FIG. 6.
상기 실험예들의 실험 상황은 다음과 같은 환경에서 수행하였다. 학습은 데이터 강화(data augmentation)를 위해 랜덤 플립(random flip), -30° 내지 30° 사이의) 랜덤 로테이션(random rotation), 랜덤 밝기 조정(random brightness adjustment) 및 랜덤 콘트래스트 조정(random contrast adjustment)을 적용하였다. 양안 안저 사진을 이용하여 모델을 학습할 경우, 각각의 안저사진에 대해 데이터 강화를 적용하였다. 또한 영상의 정규화(normalization)을 위해 Z-스코어 정규화(Z-score normalization)를 전처리 기법으로 활용하였다. 학습과정은 배치(batch) 설정 값을 4로 설정하여 20000회 반복(iteration) 학습하고, 최적화를 위해 ADAM 방식을 활용하였다. 최적화 파라미터는 초기값(beta1: 0.9, beta2: 0.999)로 설정한 상태로 학습하였다. 비용 함수(loss function로는 교차-엔트로피(Cross-Entropy) 함수를 사용하였다. Experimental conditions of the above experimental examples were performed in the following environment. Learning is performed by random flip for data augmentation, random rotation between -30° and 30°, random rotation, random brightness adjustment and random contrast adjustment. adjustment). When training the model using binocular fundus photography, data reinforcement was applied to each fundus photography. Also, for normalization of images, Z-score normalization was used as a pre-processing technique. In the learning process, the batch setting value was set to 4 to learn 20,000 iterations, and the ADAM method was used for optimization. The optimization parameters were trained with the initial values (beta1: 0.9, beta2: 0.999) set. As a loss function, a cross-entropy function was used.
데이터의 규모가 작기 때문에 5-폴드 교차 검증(fold corss validation) 방법을 통해 도 3 및 도 6의 모델(1, 2)의 성능을 검증하였다. 교차 검증은 모든 데이터가 최소 한번은 테스트 세트로 사용되도록 하는 검증 방법으로서, 데이터를 다수의 군으로 분할한뒤 매번 테스트 세트를 변형하여 학습 모델의 성능을 평가하는 검증 방식이다. Because the data is small, the performance of the models 1 and 2 of FIGS. 3 and 6 was verified through a 5-fold corss validation method. Cross-validation is a verification method that ensures that all data is used as a test set at least once. It is a verification method that divides the data into multiple groups and then modifies the test set each time to evaluate the performance of the training model.
학습용 샘플을 5개의 폴드(fold)로 나누어 검증을 진행되었으며, 제1 내지 제4 폴드에는 학습용 샘플(즉, training data)로서 안저 사진 572장(aneurysm 286장, normal 286장), 대상자의 안저 사진(즉, test data) 144장으로 설정하였고, 제5 폴드에는 학습용 샘플 안저 사진 576장(aneurysm 288장, normal 288장), 대상자의 안저 사진 140장으로 설정하였다. The training sample was divided into 5 folds to verify, and the first to fourth folds were training samples (ie, training data) with 572 fundus photos (286 aneurysms, 286 normals), and the subject's fundus photos. (I.e., test data) was set to 144, and the fifth fold was set to 576 sample fundus images for training (aneurysm 288, normal 288), and 140 subjects' fundus photos.
제1 내지 제3 실험예에 따른 학습 결과는 다음의 4가지의 평가 방법을 통해 정량적인 결과로 도출되었다: ROC AUC(Receiver Operating Characteristic Area Under Curve), ACC(Accuracy), Se(Sensitivity), Sp(Specificity). The learning results according to the first to third experimental examples were derived as quantitative results through the following four evaluation methods: ROC AUC (Receiver Operating Characteristic Area Under Curve), ACC (Accuracy), Se (Sensitivity), Sp (Specificity).
도 8을 참조하면, 단안 안저 사진을 이용하여 학습된 뇌동맥류 예측 모델(1) 및 양안 안저 사진을 이용하여 학습된 뇌동맥류 예측 모델(2) 모두 대략 97 내지 99%의 ROC AUC를 가진다. 또한, 단안 안저 사진을 이용하여 학습된 뇌동맥류 예측 모델(1)에 대해서는 대략 90%의 ACC를 가지고, 양안 안저 사진을 이용하여 학습된 뇌동맥류 예측 모델(2)에 대해서는 최소 80% 이상의 ACC를 가진다. 즉, 본 발명에 따른 안저 사진을 이용하여 학습된 뇌동맥류 예측 모델(1, 2)는 우수한 뇌동맥류 예측 성능을 가진다는 것을 확인할 수 있다. 이는 인간 의사의 경우는 뇌동맥류 진단을 위해 기존에 침습식이나 고방사선 이용 등 선별 검사가 필요하였던 바와 같이 안저 사진으로 뇌동맥류를 예측할 수 없는 것을 고려할 때 더욱 우수한 결과이다.Referring to FIG. 8, both the brain aneurysm prediction model 1 trained using monocular fundus photography and the brain aneurysm prediction model 2 trained using binocular fundus photography have an ROC AUC of approximately 97 to 99%. In addition, a brain aneurysm prediction model (1) trained using monocular fundus photography has an ACC of approximately 90%, and a brain aneurysm prediction model (2) trained using binocular fundus photography requires at least 80% ACC. Have That is, it can be confirmed that the brain aneurysm prediction models 1 and 2 learned using the fundus photograph according to the present invention have excellent cerebral aneurysm prediction performance. This is a better result when a human doctor considers that an aneurysm cannot be predicted by a fundus picture, as screening tests such as invasive or high-radiation use were previously required to diagnose cerebral aneurysms.
이상에서 설명한 실시예들에 따른 뇌동맥류 예측 장치 및 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. According to the embodiments described above The operation by the apparatus and method for predicting cerebral aneurysms may be implemented, at least in part, by a computer program and recorded in a computer-readable recording medium. For example, implemented with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor for performing any or all of the steps, operations, or procedures described.
상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be a desktop computer, a laptop computer, a laptop, a smart phone, or a computing device such as the like, or it may be any device that may be integrated. A computer is a device with one or more alternative, special-purpose processors, memory, storage space, and networking components (either wireless or wired). The computer may, for example, run an operating system such as Microsoft's Windows compatible operating system, Apple OS X or iOS, Linux distribution, or Google's Android OS.
상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of record identification devices that store data that can be read by a computer. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tapes, floppy disks, and optical data storage identification devices. In addition, the computer readable recording medium may be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment will be readily understood by those skilled in the art to which this embodiment belongs.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.The present invention described above has been described with reference to the embodiments shown in the drawings, but this is merely exemplary, and those skilled in the art will understand that various modifications and modifications of the embodiments are possible therefrom. However, it should be considered that such modifications are within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
본 발명의 일 측면에 따른 뇌동맥류 예측 장치는 종래의 침습 기반 검사 위주였던 뇌동맥류 예측 기술과 달리, 비침습적이면서 4차 산업 기술 중 하나인 기계 러닝(machine learning)을 이용하여 뇌동맥류 질환자 여부를 예측할 수 있다. 그 결과, 기존의 뇌동맥류 검사보다 안전하게 뇌동맥류를 예측할 수 있다. According to an aspect of the present invention, a device for predicting cerebral aneurysm is a non-invasive and non-invasive and one of the fourth industrial technology using machine learning, which is different from the conventional aneurysm-based inspection-oriented brain aneurysm prediction technology. Predictable. As a result, cerebral aneurysms can be predicted more safely than conventional cerebral aneurysms.
특히, 안저 사진을 이용하여 뇌동맥류를 예측할 수 있다. 눈의 망막 안저(retina fundus)는 실제 빛을 인식하는 카메라의 필름과 같은 조직이며, 안저 카메라(fundus camera)를 이용하여 쉽게 안저 사진을 얻을 수 있다. 안저 카메라는 침습적인 처치가 필요하지 않고 방사선을 사용하지 않을 뿐만 아니라 촬영 시간이 수 분 이내로 짧다. 이러한 안저 카메라를 이용한 안저 검사는 비용이 매우 저렴하다(현재 보험수가 7990원, 일반수가 20770원)이다. 또한, 안저 카메라는 거의 모든 안과의원 및 안과병원에 보급되어 있을 뿐만 아니라 다수의 검진센터들도 보유하고 있어, 접근성, 보급성이 뛰어나다. 무엇보다도 안저 사진은 시신경유두와 망막, 맥락막의 혈관(동맥, 정맥, 모세혈관 등)을 아주 높은 해상도로 제공하며, 망막의 혈관을 직접 관찰할 수 있는 망막안저의 조직특성상 안저 사진은 최신의 자기공명영상 장비들이 가진 혈관 해상력보다도 수십 배 훨씬 높은 해상도를 가지고 있다.In particular, cerebral aneurysms can be predicted using fundus photography. The retina fundus of the eye is a film-like tissue of a camera that recognizes real light, and a fundus camera can be used to easily obtain a fundus picture. Fundus cameras do not require invasive treatment, do not use radiation, and have a short shooting time within minutes. Fundus examination using such a fundus camera is very inexpensive (current insurance price is 7990 won, general price is 20770 won). In addition, fundus cameras are not only distributed to almost all ophthalmology clinics and ophthalmology clinics, but also have a large number of examination centers, making them excellent in accessibility and dissemination. Above all, fundus photography provides optic nerve papilla, retina, and choroidal blood vessels (arteries, veins, capillaries, etc.) at very high resolution. Due to the tissue characteristics of the retinal fundus that can directly observe blood vessels in the retina, fundus photography is the latest self It has dozens of times the resolution of vascular resolution of resonance imaging equipment.
이러한 장점을 갖는 안저 사진 촬영을 이용하여 뇌동맥류를 예측할 수 있다면, 지주막하출혈 등과 같은 뇌동맥류에 대한 예방치료에 있어 획기적인 발전을 이룰 것으로 예상된다. 따라서, 지주막하출혈로 인한 사회, 경제적 비용을 경감할 수 있는 막대한 효과를 얻을 수 있다. If it is possible to predict cerebral aneurysms using fundus photography with these advantages, it is expected to achieve a breakthrough in preventive treatment for cerebral aneurysms such as subarachnoid hemorrhage. Therefore, it is possible to obtain enormous effects that can reduce social and economic costs due to subarachnoid hemorrhage.
나아가, 본 발명을 통해 안저 사진으로부터 뇌혈관 이상 여부를 결정할 수 있다는 가능성이 시사되었는 바, 시신경유두와 망막의 혈관은 발생학적으로 뇌의 일부가 분화한 것으로 뇌의 혈관들과 유사한 특징을 가지고 있는 점에 비추어 볼 때, 망막 혈관의 이상과 뇌혈관 이상의 연관성에 대한 의료 분야의 이론에도 새로운 지평을 열 수 있다고 판단된다. Furthermore, the present invention suggests the possibility of determining cerebrovascular abnormality from fundus photography. The optic nerve papilla and the blood vessels of the retina are genetically differentiated parts of the brain and have characteristics similar to those of the brain. In light of this, it is judged that it can open a new horizon in the medical field theory of the relationship between retinal vessel abnormalities and cerebrovascular abnormalities.

Claims (23)

  1. 프로세서를 포함한 컴퓨팅 장치에 의해 수행되는 뇌동맥류 예측 결과 제공 방법에 있어서, In the method of providing a brain aneurysm prediction results performed by a computing device including a processor,
    대상자의 안저 사진을 획득하는 단계; 및Obtaining a fundus photograph of the subject; And
    상기 대상자의 안저 사진 데이터를 뇌동맥류 예측 모델에 적용하여 상기 대상자가 뇌동맥류를 가지고 있는지 여부를 결정하는 단계;를 포함하되,Including the step of determining whether the subject has a cerebral aneurysm by applying the fundus photo data of the subject to a brain aneurysm prediction model;
    상기 뇌동맥류 예측 모델은 학습용 안저 사진을 포함하는 복수의 학습용 샘플을 이용하여 입력된 안저 사진을 뇌동맥류 그룹으로 분류하는 능력이 학습된 모델인 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.The cerebral aneurysm prediction model provides a method for predicting cerebral aneurysm, characterized in that the ability to classify an input fundus photograph into a cerebral aneurysm group using a plurality of training samples including a learning fundus photograph.
  2. 제1항에 있어서, 상기 뇌동맥류 예측 모델은,According to claim 1, wherein the brain aneurysm prediction model,
    안저 사진이 입력되는 입력 레이어; An input layer into which a fundus picture is input;
    복수의 컨볼루션 레이어 및 풀링 레이어를 포함하며, 상기 입력 레이어의 안저 사진에서 특징을 추출하는 특징 추출 레이어; 및A feature extraction layer including a plurality of convolutional layers and a pooling layer and extracting features from the fundus photo of the input layer; And
    복수의 노드를 포함한 완전 연결 레이어를 포함하며, 상기 특징에 기초하여 입력된 안저 사진을 뇌동맥류 그룹 또는 비질환 그룹으로 분류하는 분류 레이어를 포함하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.A method of providing a predicted result of a cerebral aneurysm comprising a complete connection layer including a plurality of nodes, and comprising a classification layer that classifies the fundus picture input based on the feature into a cerebral aneurysm group or a non-disease group.
  3. 제2항에 있어서, According to claim 2,
    상기 복수의 컨볼루션 레이어 중 적어도 하나는 입력 데이터가 복수의 경로로 진행한 뒤 다시 결합하도록 구성된 잔차 병목 블록(Residual Bottleneck Block)을 포함하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.At least one of the plurality of convolutional layers, a method of providing an aneurysm prediction result, characterized in that it comprises a residual bottleneck block configured to recombine after the input data proceeds to a plurality of paths.
  4. 제3항에 있어서, According to claim 3,
    상기 잔차 병목 블록은 입력 데이터가 제1 경로 및 제2 경로를 통해 진행하고, 상기 제1 경로를 통해 진행한 데이터와 상기 제2 경로를 통해 진행한 데이터가 결합하도록 구성되며, The residual bottleneck block is configured such that input data proceeds through a first path and a second path, and data progressed through the first path and data progressed through the second path are combined,
    상기 제1 경로를 통해 진행하는 데이터는 컨볼루션 필터가 적용되도록 구성된 복수의 서브 컨볼루션 레이어를 통해 진행하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.Method for providing a predicted result of a cerebral aneurysm, characterized in that the data proceeding through the first path proceeds through a plurality of sub-convolution layers configured to apply a convolution filter.
  5. 제4항에 있어서, The method of claim 4,
    상기 복수의 서브 컨볼루션 레이어 중 적어도 하나는 다른 컨볼루션 필터에 비해 낮은 차원의 데이터를 출력하도록 구성된 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.At least one of the plurality of sub-convolutional layer is configured to output data of a lower dimension compared to other convolutional filters.
  6. 제5항에 있어서, 상기 잔차 병목 블록은,The method of claim 5, wherein the residual bottleneck block,
    입력된 특징맵에 복수의 1×1 크기의 필터를 적용하여 제1 특징맵을 출력하는 제1 서브 컨볼루션 레이어, 제1 서브 컨볼루션 레이어에서 출력된 제1 특징맵에 복수의 3×3 크기의 필터를 적용하여 제2 특징맵을 출력하는 제2 서브 컨볼루션 레이어, 및 제2 서브 컨볼루션 레이어에서 출력된 제2 특징맵에 복수의 1×1 크기의 필터를 적용하여 제3 특징맵을 출력하는 제3 서브 컨볼루션 레이어를 포함하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.A first sub-convolution layer that outputs the first feature map by applying a plurality of 1×1 size filters to the input feature map, and a plurality of 3×3 sizes in the first feature map output from the first sub-convolution layer Applying a filter of the second sub-convolution layer to output the second feature map, and the second feature map output from the second sub-convolution layer by applying a plurality of 1 × 1 filter size of the third feature map A method for providing a predicted result of a cerebral aneurysm, comprising an output third subconvolution layer.
  7. 제4항에 있어서, The method of claim 4,
    상기 복수의 서브 컨볼루션 레이어 중 적어도 하나가 샘플링 데이터를 출력하도록 모델링된 경우, 상기 제2 경로를 통해 진행하는 입력 데이터는 상기 제1 경로의 샘플링 데이터에 대응하도록 샘플링 처리되는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.When at least one of the plurality of sub-convolution layers is modeled to output sampling data, a brain aneurysm characterized in that the input data proceeding through the second path is sampled to correspond to the sampling data of the first path. How to provide predictive results.
  8. 제3항에 있어서, According to claim 3,
    상기 잔차 병목 블록에서의 데이터 결합은 요소별(element-wise) 덧셈 처리에 의해 수행되는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.The method for providing a predicted result of a cerebral aneurysm, wherein data combining in the residual bottleneck block is performed by element-wise addition processing.
  9. 제2항에 있어서, According to claim 2,
    상기 특징 추출 레이어는 제1 컨볼루션 레이어를 포함하되,The feature extraction layer includes a first convolution layer,
    상기 제1 컨볼루션 레이어는 상기 입력 레이어에서 출력된 안저 이미지에 7×7 크기의 필터 64개를 이용하여 제1 특징맵을 출력하도록 구성되는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.The first convolution layer is configured to output a first feature map using 64 filters of size 7×7 on the fundus image output from the input layer.
  10. 제9항에 있어서, The method of claim 9,
    상기 특징 추출 레이어는 상기 제1 특징맵을 맥스 풀링 처리하도록 구성된 맥스 풀링 레이어를 더 포함하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.The feature extraction layer further comprises a max pooling layer configured to perform max pooling of the first feature map.
  11. 제9항에 있어서, The method of claim 9,
    상기 특징 추출 레이어는 제2 내지 제4 컨볼루션 레이어를 더 포함하되,The feature extraction layer further includes a second to fourth convolution layer,
    상기 제2 컨볼루션 레이어 내지 제4 컨볼루션 레이어 중 적어도 하나는 상기 잔차 병목 블록을 포함하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.At least one of the second convolutional layer to the fourth convolutional layer includes the residual bottleneck block.
  12. 제11항에 있어서, The method of claim 11,
    상기 제2 컨볼루션 레이어 내지 제4 컨볼루션 레이어 중 적어도 하나에 포함된 잔차 병목 블록은 복수인 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.A method for providing a brain aneurysm prediction result, wherein the residual bottleneck block included in at least one of the second convolution layer to the fourth convolution layer is a plurality.
  13. 제12항에 있어서, The method of claim 12,
    상기 잔차 병목 블록이 복수인 경우, 하나 이상의 잔차 병목 블록은 입력 데이터를 샘플링하여 출력하도록 구성되는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.If the plurality of residual bottleneck blocks, one or more residual bottleneck blocks are configured to sample the input data to output a brain aneurysm prediction method.
  14. 제1항에 있어서, 상기 뇌동맥류 예측 모델은,According to claim 1, wherein the brain aneurysm prediction model,
    상기 뇌동맥류 예측 모델의 비용 함수를 최소화되는 방향으로 상기 뇌동맥류 예측 모델에 포함된 파라미터를 업데이트하여 학습되며, Learning by updating the parameters included in the brain aneurysm prediction model in a direction that minimizes the cost function of the aneurysm prediction model,
    상기 비용 함수(loss function)는 뇌동맥류 예측 모델에 안저 사진을 적용한 결과 값과 실제 값과의 차이를 나타내는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.The cost function (loss function) is a method for providing a brain aneurysm prediction result, characterized in that it represents the difference between the actual value and the result of applying the fundus picture to the brain aneurysm prediction model.
  15. 제14항에 있어서, 상기 뇌동맥류 예측 모델은,The method of claim 14, wherein the model for predicting cerebral aneurysm,
    단안 안저 사진을 포함한 학습용 샘플을 이용하여 학습된 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.A method for providing a predicted result of a cerebral aneurysm, characterized by being trained using a learning sample including a monocular fundus photograph.
  16. 제15항에 있어서, 상기 대상자의 안저 사진을 획득하는 단계는, The method of claim 15, wherein the step of obtaining a fundus photograph of the subject,
    상기 대상자의 양안 안저 사진을 획득한 경우, 단안 안저 사진이 상기 뇌동맥류 예측 모델에 적용되도록 상기 양안 안저 사진을 필터링하는 단계를 더 포함하는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.When the subject's binocular fundus photograph is obtained, a method of providing a cerebral aneurysm prediction result, further comprising filtering the binocular fundus photograph so that the monocular fundus photograph is applied to the cerebral aneurysm prediction model.
  17. 제14항에 있어서, 상기 뇌동맥류 예측 모델은,The method of claim 14, wherein the model for predicting cerebral aneurysm,
    양안 안저 사진을 포함한 학습용 샘플을 이용하여 학습된 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.A method for providing a predicted result of a cerebral aneurysm, characterized by learning using a learning sample including a binocular fundus photograph.
  18. 제17항에 있어서, 상기 뇌동맥류 예측 모델은,The method of claim 17, wherein the brain aneurysm prediction model,
    제1 안저 사진이 입력되는 제1 입력 레이어;A first input layer into which a first fundus photograph is input;
    상기 제1 안저 사진의 특징을 추출하는 제1 특징 추출 레이어;A first feature extraction layer for extracting features of the first fundus picture;
    제2 안저 사진이 입력되는 제2 입력 레이어; A second input layer into which a second fundus photograph is input;
    상기 제2 안저 사진의 특징을 추출하는 제2 특징 추출 레이어; A second feature extraction layer for extracting features of the second fundus picture;
    상기 제1 특징 추출 레이어의 특징 값과 제2 특징 추출 레이어의 특징 값을 결합하도록 구성된 결합 레이어; 및A combining layer configured to combine the feature values of the first feature extraction layer and the feature values of the second feature extraction layer; And
    상기 결합된 특징 값에 기초하여 양안 안저 사진을 뇌동맥류 그룹 또는 비질환 그릅으로 분류하는 분류 레이어를 포함하는 뇌동맥류 예측 결과 제공 방법. A method of providing a predicted result of a cerebral aneurysm comprising a classification layer for classifying a ocular fundus photograph into a cerebral aneurysm group or a non-disease group based on the combined feature values.
  19. 제18항에 있어서, 상기 결합 레이어는 벡터-결합(vector concatenation) 처리하도록 구성되는 것을 특징으로 하는 뇌동맥류 예측 결과 제공 방법.19. The method of claim 18, wherein the binding layer is configured to process vector concatenation.
  20. 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제1항 내지 제19항 중 어느 하나의 항에 따른 뇌동맥류 예측 방법을 수행하게 하는 컴퓨터 판독가능 기록매체A computer-readable recording medium that stores program instructions readable by a computing device and operable by the computing device, wherein the processor is executed when the program instructions are executed by a processor of the computing device. Computer-readable recording medium for performing method of predicting cerebral aneurysm according to any one of the preceding claims
  21. 안저 사진을 이용하여 뇌동맥류를 예측하는 뇌동맥류 예측 장치로서, A brain aneurysm prediction device for predicting cerebral aneurysm using fundus photography,
    미리 학습된 뇌동맥류 예측 모델을 저장하는 저장부;A storage unit that stores a pre-trained brain aneurysm prediction model;
    대상자의 안저 사진을 획득하는 데이터 획득부; 및A data acquisition unit that acquires a fundus photograph of the subject; And
    상기 대상자의 안저 사진 데이터를 상기 뇌동맥류 예측 모델에 적용하여 상기 대상자가 뇌동맥류를 가지고 있는지 여부를 결정하는 예측부를 포함하는 뇌동맥류 예측 장치.And a predictor configured to determine whether the subject has a cerebral aneurysm by applying the fundus photo data of the subject to the cerebral aneurysm prediction model.
  22. 제21항에 있어서, 상기 뇌동맥류 예측 모델은, The method of claim 21, wherein the brain aneurysm prediction model,
    단안 안저 사진이 입력되는 입력 레이어; An input layer into which a monocular fundus photograph is input;
    복수의 컨볼루션 레이어 및 풀링 레이어를 포함하며, 상기 입력 레이어의 안저 사진에서 특징을 추출하는 특징 추출 레이어; 및 A feature extraction layer including a plurality of convolutional layers and a pooling layer and extracting features from the fundus photo of the input layer; And
    복수의 노드를 포함한 완전 연결 레이어를 포함하며, 상기 특징에 기초하여 입력된 안저 사진을 뇌동맥류 그룹 또는 비질환 그룹으로 분류하는 분류 레이어를 포함하는 것을 특징으로 하는 뇌동맥류 예측 장치.A device for predicting cerebral aneurysm, comprising a complete connection layer including a plurality of nodes, and comprising a classification layer that classifies the fundus picture input based on the feature into a cerebral aneurysm group or a non-disease group.
  23. 제21항에 있어서, 상기 뇌동맥류 예측 모델은, The method of claim 21, wherein the brain aneurysm prediction model,
    제1 안저 사진이 입력되는 제1 입력 레이어;A first input layer into which a first fundus photograph is input;
    상기 제1 안저 사진의 특징을 추출하는 제1 특징 추출 레이어;A first feature extraction layer for extracting features of the first fundus picture;
    제2 안저 사진이 입력되는 제2 입력 레이어; A second input layer into which a second fundus photograph is input;
    상기 제2 안저 사진의 특징을 추출하는 제2 특징 추출 레이어; A second feature extraction layer for extracting features of the second fundus picture;
    상기 제1 특징 추출 레이어의 특징 값과 제2 특징 추출 레이어의 특징 값을 결합하도록 구성된 결합 레이어; 및A combining layer configured to combine the feature values of the first feature extraction layer and the feature values of the second feature extraction layer; And
    상기 결합된 특징 값에 기초하여 양안 안저 사진을 뇌동맥류 그룹 또는 비질환 그릅으로 분류하는 분류 레이어를 포함하는 것을 특징으로 하는 뇌동맥류 예측 장치.And a classification layer for classifying a ocular fundus photograph into a cerebral aneurysm group or a non-disease group based on the combined feature values.
PCT/KR2019/016849 2018-12-03 2019-12-02 Intracranial aneurysm prediction device using fundus photo, and method for providing intracranial aneurysm prediction result WO2020116878A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0153943 2018-12-03
KR1020180153943A KR102330519B1 (en) 2018-12-03 2018-12-03 Apparatus for predicting intracranial aneurysm using retinal fundus image and method for providing intracranial aneurysm prediction results using the same

Publications (1)

Publication Number Publication Date
WO2020116878A1 true WO2020116878A1 (en) 2020-06-11

Family

ID=70973942

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/016849 WO2020116878A1 (en) 2018-12-03 2019-12-02 Intracranial aneurysm prediction device using fundus photo, and method for providing intracranial aneurysm prediction result

Country Status (2)

Country Link
KR (1) KR102330519B1 (en)
WO (1) WO2020116878A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11583187B2 (en) 2016-06-02 2023-02-21 Aneuscreen Ltd. Method and system for monitoring a condition of cerebral aneurysms

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102507966B1 (en) * 2020-07-24 2023-03-08 고려대학교 산학협력단 A method and apparatus for predicting urinary tract infection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101623431B1 (en) * 2015-08-06 2016-05-23 주식회사 루닛 Pathological diagnosis classifying apparatus for medical image and pathological diagnosis system using the same
KR101828011B1 (en) * 2016-08-11 2018-02-21 서울대학교산학협력단 Method and apparatus for classifying state of object included in image
JP2018027273A (en) * 2016-08-19 2018-02-22 学校法人自治医科大学 Staging determination support system of diabetic retinopathy and method of supporting determination of staging of diabetic retinopathy
KR101848321B1 (en) * 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same
KR101903437B1 (en) * 2017-06-30 2018-10-04 동국대학교 산학협력단 Device and method for classifying open and close eyes based on deep residual learning

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101623431B1 (en) * 2015-08-06 2016-05-23 주식회사 루닛 Pathological diagnosis classifying apparatus for medical image and pathological diagnosis system using the same
KR101828011B1 (en) * 2016-08-11 2018-02-21 서울대학교산학협력단 Method and apparatus for classifying state of object included in image
JP2018027273A (en) * 2016-08-19 2018-02-22 学校法人自治医科大学 Staging determination support system of diabetic retinopathy and method of supporting determination of staging of diabetic retinopathy
KR101903437B1 (en) * 2017-06-30 2018-10-04 동국대학교 산학협력단 Device and method for classifying open and close eyes based on deep residual learning
KR101848321B1 (en) * 2017-10-27 2018-04-20 주식회사 뷰노 Method for facilitating dignosis of subject based on fovea image thereof and apparatus using the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
R OSELINE, R. H.: "Retinal Based Disease Prediction using Deep Neural Networks and SVM Classification Techniques", INTERNATIONAL JOURNAL OF ENGINEERING TRENDS AND TECHNOLOGY (IJETT, 7 July 2017 (2017-07-07), pages 437 - 444, XP055621801, ISSN: 2231-5381 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11583187B2 (en) 2016-06-02 2023-02-21 Aneuscreen Ltd. Method and system for monitoring a condition of cerebral aneurysms

Also Published As

Publication number Publication date
KR102330519B1 (en) 2021-11-24
KR20200067052A (en) 2020-06-11

Similar Documents

Publication Publication Date Title
WO2020235966A1 (en) Device and method for processing medical image using predicted metadata
WO2019216504A1 (en) Method and system for human emotion estimation using deep physiological affect network for human emotion recognition
WO2021025461A1 (en) Ultrasound image-based diagnosis system for coronary artery lesion using machine learning and diagnosis method of same
WO2020116878A1 (en) Intracranial aneurysm prediction device using fundus photo, and method for providing intracranial aneurysm prediction result
JPWO2018008593A1 (en) Image diagnostic learning apparatus, image diagnostic apparatus, method and program
WO2019083227A1 (en) Method of processing medical image, and medical image processing apparatus performing the method
WO2019132614A1 (en) Surgical image segmentation method and apparatus
WO2021118255A2 (en) System and method for analyzing corneal lesion using anterior ocular segment image, and computer-readable recording medium
Hassan et al. Deep learning-based automatic detection of central serous retinopathy using optical coherence tomographic images
WO2019231102A1 (en) Method for classifying fundus image of subject and device using same
WO2020076133A1 (en) Validity evaluation device for cancer region detection
WO2021261808A1 (en) Method for displaying lesion reading result
WO2019240567A1 (en) Anterior eye disease diagnostic system and diagnostic method using same
Eroğlu et al. Automatic detection of eardrum otoendoscopic images in patients with otitis media using hybrid‐based deep models
WO2018117753A1 (en) Electronic device and method of controlling the same
Pham et al. Generating future fundus images for early age-related macular degeneration based on generative adversarial networks
WO2019189972A1 (en) Method for analyzing iris image by artificial intelligence so as to diagnose dementia
WO2019221586A1 (en) Medical image management system, method, and computer-readable recording medium
Temel et al. Relative afferent pupillary defect screening through transfer learning
WO2021201582A1 (en) Method and device for analyzing causes of skin lesion
Mohan et al. Exudate detection with improved u-net using fundus images
Bali et al. Analysis of Deep Learning Techniques for Prediction of Eye Diseases: A Systematic Review
WO2020226455A1 (en) Optic neuropathy prediction device using fundus image, and method for providing optic neuropathy prediction result
WO2021177771A1 (en) Method and system for predicting expression of biomarker from medical image
WO2022114506A1 (en) Electronic device and control method of electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19892490

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19892490

Country of ref document: EP

Kind code of ref document: A1