WO2015099426A1 - 뇌경색 영역의 분할 방법 - Google Patents

뇌경색 영역의 분할 방법 Download PDF

Info

Publication number
WO2015099426A1
WO2015099426A1 PCT/KR2014/012760 KR2014012760W WO2015099426A1 WO 2015099426 A1 WO2015099426 A1 WO 2015099426A1 KR 2014012760 W KR2014012760 W KR 2014012760W WO 2015099426 A1 WO2015099426 A1 WO 2015099426A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
region
brain
dwi
infarct
Prior art date
Application number
PCT/KR2014/012760
Other languages
English (en)
French (fr)
Inventor
김남국
강동화
장용준
이상민
정계삼
Original Assignee
재단법인 아산사회복지재단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130161295A external-priority patent/KR20150073519A/ko
Priority claimed from KR1020140034846A external-priority patent/KR101578483B1/ko
Priority claimed from KR1020140034851A external-priority patent/KR101634334B1/ko
Application filed by 재단법인 아산사회복지재단 filed Critical 재단법인 아산사회복지재단
Publication of WO2015099426A1 publication Critical patent/WO2015099426A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain

Definitions

  • the present disclosure relates to a method of dividing a cerebral infarction, and more particularly, to a method of dividing a cerebral infarct into a brain based on a threshold value.
  • the present disclosure relates to a method of dividing the cerebral infarction, and more particularly, to a method of dividing the cerebral infarction in order to distinguish recoverable points for each of the points of the cerebral infarction.
  • the present disclosure relates to a method for automatically analyzing a stroke, and more particularly, to a method for automatically analyzing a stroke for analyzing an infarct region and a peripheral region using a template image and a brain image together.
  • the present disclosure relates to a method of extracting a representative image from a medical image, and more particularly, to a method of extracting a representative image from a medical image representing characteristics of a medical image such as a lesion.
  • an infarct region is assessed by MRI.
  • DWI perfusion-weighted imaging
  • DWI diffusion-weighted imaging
  • the areas of cerebral infarction in PWI and those in DWI are related to the time of stroke and often do not coincide within a certain time. Therefore, quantitative assessment of PWI-DWI mismatch in acute ischemic stroke is important. This is because the PWI-DWI mismatch region is an ischemic penumbra that is affected by ischemia and is evaluated as a region that can be revived by treatment. Therefore, it is important to accurately divide the core of the infarct region in the DWI, and for example, an adaptive threshold algorithm may be used as the method of segmentation.
  • US Patent No. 8,125,223 discloses a method of dividing an infarction region on a DWI basis. However, the method disclosed in this document is directed to a special method of segmenting infarct areas in individual DWI images and does not disclose how to set threshold values to automatically segment infarct areas.
  • Conditions for treatment such as thrombolysis for acute cerebral infarction are recommended on an international basis to be implemented within 4.5 hours from onset time of stroke.
  • a method for estimating the time of occurrence the paper Cho AH, Sohn SI, Han MK, et al. Safety and efficacy of MRI-based thrombolysis in unclear-onset stroke.
  • a preliminary report. Cerebrovasc Dis 2008; 25: 572-579. Discloses a method for estimating the incidence of infarct area using FLRI (fluid-attenuated inversion recovery) images of patients with uncertain incidence of cerebral infarction.
  • the MRI-based conditions used as the basis for the timing of occurrence in this paper include the conditions of positive perfusion-diffusion mismatch (PWI-DWI mismatch) and absence of well-developed fluid-attenuated inversion recovery changes of acute diffusion lesions (FLAIR CHANGE). do.
  • the region to be recovered by thrombolysis may be more preferable.
  • a representative image (eg, thumbnail) is generated by storing and showing thumbnails of the entire image like a digital camera, so that a user can easily view, sort, and select an image without loading all the images.
  • a representative image eg, thumbnail
  • thumbnails of the reduced medical images information is very insufficient to easily obtain the characteristics of the medical images from the images. Therefore, it is required to generate a thumbnail by extracting a high quality image that most characteristically reveals the contents of the medical image. In addition, since a large amount of medical images are handled, it is necessary to develop a convenient generation process of representative images such as thumbnails.
  • US Patent Publication No. 2011/0286647 discloses a method for browsing using an image cube storing image piles (thumbnails, etc.) of a medical image along three axes representing body part, modality, and date of image. However, this document does not disclose a method of automatically or semi-automatically extracting features of a medical image and searching and managing the medical image using the same.
  • the method of segmenting a cerebral infarction region generating a template histogram of a brain image using a plurality of brain images. ; Matching the histogram of the brain image to be divided with the template histogram; And dividing the cerebral infarction region based on a threshold value selected based on the template histogram in the matched histogram.
  • the brightness information of each point in the infarct region included in the at least one brain image Extracting a quantitative value set comprising a; And estimating recoverability from infarction of each of the points based on the difference in the quantitative value set between the points in the infarct area.
  • a method for automatically analyzing stroke comprising: automatically dividing an infarct using a DWI; Automatically dividing a penumbra using PWI; Registering a DWI image obtained by dividing the infarct region and a PWI image obtained by dividing the peripheral region with a template brain image; And analyzing the DWI-PWI mismatch in the determined image.
  • a method for automatically analyzing the stroke is provided.
  • a method of extracting a representative image from a medical image for search and management comprising: selecting a location of interest in the medical image; Dividing a region of interest including the center of focus by image processing a medical image according to an image processing instruction according to a type of lesion; And generating a representative image by assigning a safety margin to the divided ROI, thereby providing a method of extracting a representative image from a medical image.
  • FIG. 1 is a view illustrating an example of a method of segmenting an infarct region according to the present disclosure
  • FIG. 2 is a diagram illustrating an example of a DWI brain image
  • 3 is a view for explaining an example of a brain image segmented in the DWI brain image
  • FIG. 4 is a view illustrating an example of the mean and standard deviation of a histogram in DWI brain images of a plurality of patients before histogram matching;
  • FIG. 5 is a diagram for explaining an example of a histogram matching method
  • FIG. 6 is a diagram for explaining an example of a mathematical technique of histogram matching.
  • FIG. 7 is a diagram illustrating an example of the mean and standard deviation of a histogram in DWI brain images of a plurality of patients after histogram matching.
  • FIG. 8 is a view for explaining an example of a method of matching a segmentation histogram to a template histogram and a method of correcting an infarct area;
  • ventricle 9 is a view for explaining an example of division of the ventricle (ventricle),
  • FIG. 10 is a diagram for explaining an example of a histogram for ROI Vs NonROI in an ADC image.
  • FIG. 11 illustrates an example of a mean and standard deviation of a histogram for ROI Vs NonROI in ADC images of a plurality of patients.
  • FIG. 12 is a view for explaining an example of an FROC analysis graph using the threshold value, the size of the infarct region, and the ADC threshold value as parameters.
  • FIG. 13 is a view for explaining an example of a method for dividing an infarction region according to the present disclosure
  • 15 is a diagram illustrating an example of a brain image segmented in a DWI brain image
  • 16 is a diagram illustrating an example of a method in which a quantitative value set of each of the voxels of an infarct region is extracted
  • FIG. 17 is a diagram illustrating an example of a process in which a brain image is filtered by a Gaussian low pass filter
  • FIG. 18 is a diagram illustrating an example of a change in brightness of an infarct region in a DWI image according to an occurrence time of infarction
  • FIG. 19 is a view for explaining an example of a method of understanding a quantitative value set as a point in a multi-space relationship corresponding to an infarct occurrence time point;
  • 20 is a view for explaining an example of a classifier generation method
  • 21 is a view for explaining an example of the correspondence relationship generated by the regression analysis
  • FIG. 22 illustrates a reduced infarct region excluding infarct recoverable voxels
  • 24 is a view for explaining another example of the automatic analysis method for stroke according to the present disclosure.
  • 25 is a diagram for explaining an example of an atlas template.
  • FIG. 27 is a diagram for explaining a feature of a method of dividing an infarct area from a DWI;
  • 28 to 30 are diagrams for explaining characteristics of a method of dividing a peripheral region from a PWI.
  • FIGS. 29 to 30 are diagrams showing the analysis results of FIGS. 29 to 30.
  • 35 is a view for explaining an example of automatically showing an analysis result incorporating DWI-PWI-FLAIR, a template
  • 36 is a diagram illustrating the aforementioned methods as an example of a user interface
  • FIG. 37 is a view for explaining an example of a method of extracting a representative image from a medical image according to the present disclosure
  • 38 is a view illustrating an example of a process of selecting a lesion through a pop-up window
  • 39 is a view for explaining an example of a method of selecting a view in a 3D medical image
  • FIG. 40 is a view showing an example of an image of a lung
  • 41 is a view for explaining an example of a process of generating a thumbnail
  • FIG. 42 is a view for explaining an example of a method of capturing an image when generating a thumbnail
  • 43 is a view for explaining an example of an image that changes with time
  • 44 is a view for explaining an example of a manner in which thumbnails are stored and retrieved.
  • FIG. 1 is a view illustrating an example of a method of dividing an infarct region according to the present disclosure.
  • a template histogram of the brain image is generated using a plurality of brain images (S30). For example, a template histogram is obtained at DWI B0 and B1000.
  • a process of extracting a brain from a BET extraction process (S10) and a B1000 may be performed on a brain image acquired by MRI (S30).
  • the method of dividing the cerebral infarction is described based on the DWI of the MRI, but it may be considered to apply the method of dividing the cerebral infarct using brain images having different modalities.
  • a threshold value Th may be selected based on the template histogram (S40).
  • the threshold value may be selected using histograms of a plurality of brain images.
  • the histogram of the brain image to be divided to match the template histogram (S60).
  • the cerebral infarction region is divided based on the threshold value in the matched histogram (S70).
  • the infarct region can be automatically divided by the selected threshold value.
  • the non-infarct region may be partially included in the region divided into the infarct region.
  • the process of correcting such an error may be performed.
  • the threshold value may be corrected after the ventricles are divided in the DWI B1000 (S51), and the mean and the deviation of the ventricles and the non-infarct regions are modeled (S53).
  • an error correction process may be performed using an ADC that is a reverse phase of the DWI (S80).
  • the cerebral infarction can be automatically found and divided.
  • FIG. 2 is a diagram illustrating an example of a DWI brain image
  • FIG. 3 is a diagram illustrating an example of a brain image segmented in a DWI brain image.
  • the DWI is taken as a pre-process before generating the histogram of the brain image, it includes the area where the stroke does not occur, such as an area other than the brain (eg, noise, CSF).
  • Such areas can be extracted with open software such as BET.
  • 3 (b) shows an inversion image in DWI B0. Thresholding with B1000 among B0 and B1000 can help the brain find better.
  • DWI is used to find the core of the infarction.
  • FIG. 4 is a diagram illustrating an example of the mean and standard deviation of histograms in DWI brain images of a plurality of patients before histogram matching.
  • the horizontal axis is the intensity of pixels in the brain image (I), and the vertical axis is the number of pixels (N) having some intensity in the brain image. Indicates. That is, the histogram shows the probability distribution of intensity values in some DWI brain images.
  • template histograms based on a plurality of initial brain images divided into ventricle, infarction region, and non-infarction region. It includes the process of generating.
  • the infarct region in the plurality of initial brain images is a region determined by the doctor as an infarct region (for example, 10 of FIG. 2), and may be manually determined by the knowledge and experience of the doctor as described above.
  • the average and standard deviation of the intensity values of pixels constituting the infarct region, the non-infarct region, and the ventricles evaluated by the doctor can be obtained, respectively.
  • the horizontal axis represents the number of patients
  • the vertical axis represents the intensity value.
  • each graph represents the average values of the infarct region, the non-infarct region, and the ventricle in 19 brain images, and standard deviations are displayed in a range up and down. In this manner, histograms of a plurality of brain images can be displayed at the same time.
  • FIG. 5 is a diagram illustrating an example of a histogram matching method.
  • the method of directly determining the threshold value in the plurality of histograms itself has a difficulty in selecting the threshold value because the accuracy is low and the deviation is severe for each patient.
  • a histogram matching process is performed and a template histogram can be made using a plurality of matched histograms.
  • all remaining histograms may be matched based on the first histogram.
  • the histogram matching process is a process of transforming the intensity range of each horizontal axis of the remaining histograms to be the same as the histogram number 1, and simultaneously converts the probability distributions of the remaining histograms, that is, the sameness of the shape of the histogram. It is a process.
  • FIG. 6 is a diagram for explaining an example of a mathematical technique of histogram matching.
  • FIG. 6 (a) shows an input image and a histogram
  • FIG. 6 (b) shows a relationship between an input and an output
  • FIG. 6 (c) shows an output image and a histogram.
  • T (r) may be obtained from the PDF intensity of the input image
  • G (z) may be obtained as s.
  • FIG. 7 is a diagram illustrating an example of the mean and standard deviation of histograms in DWI brain images of a plurality of patients after histogram matching.
  • the histogram matching process is performed on the histogram to be divided as described with reference to FIG. 7. If a template histogram is used as the reference for performing histogram matching, more reliable matching is possible, and thus, the reliability of the threshold value can be improved.
  • Template histograms can be created based on a plurality of matched histograms.
  • the template histogram can change as you add the number of underlying matching histograms.
  • matching the split histogram to the template histogram is a process of transforming the intensity range of the horizontal axis so that it is the same in the template histogram and the split histogram. It is a process that is converted to maintain identity.
  • the template histogram may be made by averaging a plurality of matched histograms as described above.
  • the selection bias can be significantly reduced as compared with the case where any histogram of the plurality of histograms is used as the matching criterion.
  • This template histogram serves as a criterion for histogram matching for the histogram on which the division of the infarct region is to be performed.
  • FIGS. 10 and 11 The process of thrashing the histograms again based on the generated template histogram and removing false positives using the ADC image may be added (see FIGS. 10 and 11). This is further described below.
  • a filtering process through an infarct size or the like may be added (see FIG. 12). This will be further described later.
  • infarct areas can be detected and extracted automatically by software.
  • FIG. 8 is a diagram illustrating an example of a method of matching a segmentation histogram with a template histogram and a method of correcting an infarct area.
  • FIG. 8A illustrates an example of the template histogram illustrated in FIG. 7, and FIG. 8B illustrates an example of a segmentation histogram.
  • FIG. 8 (c) shows a matched histogram as a result of matching the histogram of FIG. 8 (b) with the template histogram of FIG. 8 (a).
  • 8 (d) shows the infarct region 20 detected in the DWI brain image. Thresholding the matched histogram, the pixels corresponding to the infarct region may be reversed, and the found pixels may be divided into the infarct region 20 in the DWI image, as shown in FIG. 8 (d). Can be.
  • the infarct region 20 may be displayed in a different color from the periphery but is shown in darker gray in FIG. 8 (d).
  • Intensities of the pixels constituting the infarct region vary, and thus, pixels in the non-infarct region may be divided into the infarct region even when the threshold is held at the predetermined threshold value as described above.
  • the process of correcting this error can be added.
  • the correction may be a method of correcting the threshold value itself in the process of selecting the threshold value and a method of removing pixels of the non-infarct region from the thresholded infarct region.
  • FIG. 9 is a view for explaining an example of division of the ventricles.
  • the mean intensity and standard deviation of the pixels constituting the ventricle and the ventricle are described in FIG. 4. It can be obtained together.
  • the averages of the ventricles are different from each other in the histograms. In particular, it can be seen that the average of the non-infarct region is almost changed to the change of the average of the ventricles.
  • the threshold value when segmenting infarcts by applying a threshold value to a histogram of a particular patient, if the ventricular mean is higher or lower than other histograms or template histograms, the threshold value is added or subtracted. It is possible to change to a new threshold value.
  • the changed threshold value can be used to reduce an error in which pixels in the non-infarct region are divided into the infarct region.
  • FIG. 10 is a diagram illustrating an example of a histogram for ROI Vs NonROI in an ADC image
  • FIG. 11 is a diagram illustrating an example of the mean and standard deviation of the histogram with respect to ROI Vs NonROI in an ADC image of a plurality of patients. .
  • FIG. 10 is a histogram of an ADC image, in which FIG. 10 (a) is an example of a histogram of a non-infarct region, and FIG. 10 (b) is an example of a histogram of an infarct region.
  • FIG. 11 histograms of a plurality of patients may also be generated as shown in FIG. 11.
  • the graph indicated by the square at the upper side is the ventricular region
  • the graph at the bottom of the graph is the infarct region
  • the graph indicated by the circular dot at the center represents the histogram of the ADC of the non-infarct region.
  • the ADC is an image generated by calculation based on the DWI.
  • the ADC (apparent diffusion coefficient) is a function of temperature as a diffusion coefficient. Because there are cell walls in the body and the temperature is uneven, the ADC can be calculated using DWI. DWI and ADC are reversed. Infarct zones reduce the diffusion of water outside the cells due to the expansion of the cells. The area where the diffusion is reduced becomes a small signal decrease area when the DWI is taken on the B1000, and the DWI image is bright. On the other hand, areas with reduced diffusion appear darker than normal in the ADC. Water, such as cerebrospinal fluid (CSF), is a free-diffusion region with bright ADCs and dark DWIs.
  • CSF cerebrospinal fluid
  • the infarct region may be divided by determining the ADC threshold value with reference to the graph of FIG. 11. Therefore, only pixels satisfying the pixel divided into the infarct region and the template histograms described in FIGS. 7 and 8 and then being threshold-held and divided into the infarct region in the ADC image are divided into the infarct region. Therefore, the error can be compensated for in the threshold holding.
  • FIG. 12 is a diagram for explaining an example of a FROC analysis graph using the threshold value, the size of the infarct region, and the ADC threshold value as parameters.
  • FIG. 12 is a graph in which the threshold value of the template histogram is fixed to 200, the threshold value of the infarct region and the ADC image are changed to parameters, and FROC (Free Response Operating Characteristic) analysis for various combinations of parameters is shown. Is shown. The horizontal axis is FPs (false points), and the vertical axis represents sensitivity (probability of dividing pixels in the infarct area into the infarct areas). In FIG. 12, when the ADC threshold value is increased based on one graph, the FPs increase.
  • the user may set the conditions of the segmentation method of the infarct region to predict the reliability of the method.
  • the sensitivity is about 89.47% and the number of FPs is about 1.47.
  • At least one example of segmenting the infarct region by matching the histogram generated using the histograms of the brain images acquired in the DWI B1000 and the DWI B0, and using the ADC image or the like, may be used.
  • this stepwise method is valid, but it is of course possible to simultaneously consider the ADC and the DWI B1000 and DWI B0 in any order.
  • FIG. 13 is a view for explaining an example of a method for dividing the cerebral infarction according to the present disclosure.
  • a quantitative value set including brightness information of each point in the infarct region included in the plurality of brain images is extracted (S41).
  • the possibility of recovery from infarction of each point is estimated based on the difference in the quantitative value set between the points in the infarct area (S51).
  • a plurality of brain images may be acquired (S11), an infarct region may be divided in at least one of the plurality of brain images (S21), and the plurality of brain images may be registered (S31). ).
  • the method of distinguishing infarct regions according to the present disclosure uses a single brain image (eg, DWI) to determine the possibility of infarct recovery of each point of the infarct region. Includes sorting.
  • DWI single brain image
  • the intensity of each point is extracted from each infarct region included in the plurality of brain images, and from the reference point of the infarct region of at least one brain image of the plurality of brain images to each point.
  • the distance of can be extracted.
  • the point may be a voxel or a pixel of a 2D image extracted from a 3D brain image.
  • points are described by voxels. Therefore, the description in this example covers the case of two-dimensional pixels.
  • image smoothing may be performed using a low pass filter to extract the intensity of the voxel.
  • a distance map of the infarct region may be generated, and the distance map may be used to extract the distance from the center of the infarct region 3 (see FIG. 16) to each point.
  • each of the points can be mapped to an infarct point using a classifier that classifies the point of infarction of each point based on the difference in the set of quantitative values between the points in the infarct area.
  • a classifier that classifies the point of infarction of each point based on the difference in the set of quantitative values between the points in the infarct area.
  • the classifiers can be classified into the infarct recoverable point and the nonrecoverable point using a classifier that has learned the points to recover from the infarction.
  • the classifier uses a multiple regression method, a Support Vector Regression method, and curve fitting to determine a set of quantitative values of the points of infarct regions accumulated from brain images of different humans with known or unknown incidence of infarction. Can be classified using at least one of the group consisting of methods.
  • the method of dividing the cerebral infarction does not determine the method of treatment or diagnosis, such as whether thrombolysis is performed, but merely reveals that the voxels in the infarct have different characteristics at the time of occurrence or the possibility of infarction recovery. A more accurate determination of the infarct area is disclosed.
  • the method of dividing the cerebral infarction provides a basis for quantitatively and objectively determining each voxel about a region that may survive the overestimated infarct region.
  • FIG. 14 is a diagram for explaining examples of brain images generated by MRI.
  • Brain images are generated by MRI.
  • Brain images may include a DWI image, an ADC image, a PWI image, a FLAIR image, a T1 image, a T2 image, and the like.
  • the brain image is not limited to the MRI, but may include a CT image or other medical images.
  • the brain images are generated using pulse sequences combined according to the needs of each image. Therefore, the brain images may have different modalities.
  • the ADC is an image generated by calculation based on the DWI.
  • TR repetition time
  • TE time to echo
  • TR and TE can be controlled by the examiner. By appropriately adjusting TR and TE, T1 or T2 images can be obtained for clinical applications.
  • Diffusion weighted imaging is an image that maps the diffusion motion of molecules, particularly water molecules, in living tissue.
  • the diffusion of water molecules in tissues is not free.
  • DWI reflects the impact of water molecules on fibrous tissue or membranes. Therefore, the diffusion pattern of the water molecules indicates the normal or abnormal state of the tissue.
  • DWI may well indicate the normal and abnormal states of the fiber structure of the white matter or gray matter of the brain.
  • the ADC (apparent diffusion coefficient) is a function of temperature as a diffusion coefficient. Because there are cell walls in the body and the temperature is uneven, the ADC can be calculated using DWI. DWI and ADC are reversed. Infarct zones reduce the diffusion of water outside the cells due to the expansion of the cells. The area where the diffusion is reduced becomes a small signal decrease area when the DWI is taken on the B1000, and the DWI image is bright. On the other hand, areas with reduced diffusion appear darker than normal in the ADC. Water, such as cerebrospinal fluid (CSF), is a free-diffusion region with bright ADCs and dark DWIs.
  • CSF cerebrospinal fluid
  • Perfusion weighted imaging is a perfusion image showing blood flow.
  • parameters such as blood flow rate, blood flow rate, mean transit time (MTT), and time to peak (TTP) may be obtained.
  • MTT mean transit time
  • TTP time to peak
  • the FLAIR image is an image that nulls the signal coming from the fluid.
  • FLAIR images are used to suppress the effects of cerebrospinal fluid in the images when acquiring brain images by MRI.
  • FLAIR images show the anatomy of the brain well. Depending on the tissue, a good choice of inversion time can suppress the signal from a particular tissue.
  • T1 and T2 images control TR and TE to emphasize T1 or T2 effects of specific tissues.
  • the protons of the tissue is rearranged in the direction of the external magnetic field (B0) (Z-axis direction) while releasing the absorbed energy to the surrounding tissue.
  • T1 is the time constant of the proton spindle realignment along the longitudinal Z axis, that is, the time constant of the curve in which the Z-axis magnetization is restored.
  • T1 is referred to as the longitudinal axis relaxation time or spin-lattice relaxation time as the time constant of magnetization recovery.
  • the RF pulse is blocked, the XY component of magnetization collapses.
  • T2 is a time constant of the XY component decay curve of magnetization, and is called a lateral relaxation time or spin-spin relaxation time.
  • T1 and T2 are intrinsic values of tissue and have different values for water, solids, fats, and proteins.
  • lengthening TR decreases T1 effect.
  • shortening TR increases the T1 effect (contrast), i.e., obtains a T1-weighted image.
  • Shortening TE reduces the T2 effect, while increasing TE increases the T2 effect, i.e., obtains a T2-weighted image.
  • MRA images are blood images taken by MRI using contrast medium.
  • 15 is a diagram illustrating an example of a brain image segmented in a DWI brain image.
  • the infarct region 10 may be segmented in at least one of the acquired brain images (S21 of FIG. 13).
  • a peripheral region 20 (penumbra; see FIG. 16) of the infarct region may be divided in at least one brain image of the brain images.
  • the peripheral area is an area around the infarct area or surrounding the infarct area. The area is affected by the infarction and causes a problem in blood supply.
  • an infarct region or an ischemic penumbra may be segmented through an image processing process (eg, adaptive threshold holding) in the above-described brain images.
  • 15 (b) shows an inversion image in DWI B0. Thresholding with B1000 among B0 and B1000 can help the brain find better.
  • brain images including at least one brain image obtained by dividing the infarct region or the peripheral region are registered (S31).
  • the method of dividing the cerebral infarction region according to the present disclosure may be performed using one brain image such as DWI, and in this case, the matching process may not be included.
  • the anatomical image FLAIR or T1, T2 image, the DWI image segmented infarct region or ADC image, PWI image and the remaining brain images are matched.
  • brain images by CT may be matched together.
  • two or more, preferably two or more brain images having different modalities are matched.
  • the remaining brain images are matched based on the DWI image in which the infarct region is divided.
  • Rigid registration methods can be used for matching.
  • the brain has little motion, but in some cases, non-rigid registration may be used.
  • Atlas having template information of a brain image may be used as a basis of registration. Atlas is the epitome of brain imaging from brain images of many individuals.
  • FIG. 16 is a diagram illustrating an example of a method in which a quantitative value set of each of the voxels of an infarct region is extracted.
  • the quantitative set of values may include x, y, and z location information matched to voxels of the infarct region 10, intensity information in each of a plurality of brain images, and reference points of the infarct region 10. Distance information from a center of inertia to each voxel may be included.
  • the set of quantitative values may include some of the illustrated quantitative values (position, brightness, distance). Since the brightness information may change according to the occurrence time of the infarct region 10, the brightness information may also include time information on which brightness information is obtained.
  • the quantitative value is a value matched in a voxel unit, and a process of obtaining an average quantitative value of the infarct region 10 using the quantitative value in the voxel unit is not necessarily excluded.
  • the present disclosure determines whether recovery from infarction is possible for each voxel.
  • the method of distinguishing the cerebral infarction region according to the present disclosure focuses on having heterogeneity rather than treating the infarct region as homogeneous. Therefore, more detailed and precise determination is possible than the method of determining infarct area on average.
  • the set of quantitative values of each voxel in the infarct region is the location of the voxels in the brain image (x, y, z), the brightness of the voxels DI DWI , DI ADC , DI FLAIR , DI T1 And DI T2 With at least one of Distance from center of infarct area (3) D DWI , D ADC , D FLAIR , D T1 and D T2 It may include at least one of.
  • the location information may include a location (x, y, z) on a coordinate system that defines a space in the DWI, as shown in FIG. 16.
  • the brightness information of the voxel is matched with the brain images, for example, for the voxel of the infarct region divided by the DWI , not only the brightness of the DWI (DI DWI ) but also the brightness information of the corresponding voxel in other images (DI ADC , DI FLAIR) , DI T1 , DI T2 Etc.) may be matched. Since the voxel brightness (DI DWI , DI ADC , DI FLAIR , DI T1 , DI T2 ) of the infarct region in each brain image is considered to be related to the occurrence time of the infarct region, it is preferable to extract the brightness information.
  • 17 is a diagram illustrating an example of a process in which a brain image is filtered by a Gaussian low pass filter.
  • the image smoothing technique such as Gaussian low pass filter is applied to the brain image or infarct region to reduce the noise due to the voxel unit.
  • Signal-to-noise ratio That is, the SNR is raised using the information around the voxel.
  • the infarct region is blurred as shown in FIG. 17 (b). )do.
  • the infarct region is imaged so that the brightness of a voxel is related to the surrounding information, thereby reducing errors caused by noise.
  • the distance from the center of the infarct region eg, the center of inertia
  • the quantitative value set preferably also includes distance information.
  • a distance map of the infarct region may be used to extract distance information of the voxel.
  • the distance map may be generated based on the 3D image of the infarct region. Since the two-dimensional image in the desired direction can be obtained at any time from the three-dimensional infarct region image, the three-dimensional distance map can cover the two-dimensional distance map.
  • the generation of the distance map may include a process of extracting distance information from the boundary of the infarct region to each voxel for all the voxels of the infarct region.
  • various methods such as an Euclidean distance map, may be used as a method of generating the distance map.
  • the distance from the center of the infarct region to each voxel can be obtained from the distance information provided by the distance map.
  • FIG. 18 is a diagram illustrating an example of a change in brightness of an infarct region in a DWI image according to a time point of occurrence of infarction.
  • the brightness of the ADC is shown as the inverse of the brightness of the DWI.
  • the average brightness value of the infarct region may change with time. Since the average value is related to the brightness of each voxel, the brightness of each voxel may also change with time. The degree of change in brightness of the voxel in the infarct region in the DWI image depends on factors such as the location of the voxel, the age of the patient, the gender, and the like. In addition, since the brightness change of the voxel in the DWI image that changes with time shows a spectral distribution, uniformly evaluating the infarct region from a specific DWI brightness value may cause overestimation of the infarct region.
  • the average brightness of the infarct region divided by the threshold holding changes with time, and the volume of the infarct region may increase to the peripheral region.
  • Each of the voxels has a different point of occurrence of infarction, and may be divided into a voxel that is incapable of recovering and an infarct even in a voxel in the infarct region.
  • the present disclosure is a method for estimating the infarct recovery possibility in voxel unit focusing on the fact that the infarct region divided into the infarct region by such uniform threholding is not homogeneous, and there is a difference in the time point and recovery possibility of infarction (heterogenity). Initiate.
  • FIG. 19 is a diagram for explaining an example of a method of understanding a quantitative value set as a point in a multi-space relationship corresponding to an infarct occurrence time point
  • FIG. 20 is a diagram for explaining an example of a method of generating a classifier.
  • the quantitative value set may include brightness information (DI DWI , DI FLAIR , DI T1 , DI pWI ) , location information (x, y, z), and distance information (D) from the center of a plurality of brain images.
  • a point in space P1 (P11, P12, P13, P14, P15, P16; e.g. DI DWI , D , DI FLAIR , DI T1 , (x, y, z), DI pWI , onset1) is a quantitative value.
  • Such a correspondence relationship corresponds to the occurrence of a quantitative value set through the classifier as shown in FIG. 20.
  • Such classifiers can be trained or learned to correspond, for example, to a set of quantitative values to the time point of infarction of the voxel. Classification of voxels by this classifier is based on differences in quantitative value sets.
  • Classifiers can create correspondences using, for example, statistical methods such as multiple regression or Support Vector Regression methods.
  • the classifier may curve-fit a relationship between a set of quantitative values and a time point of infarction of a voxel to prepare a correspondence relationship.
  • the accuracy and reliability of the correspondence relationship can be improved by training and learning to map the quantitative value set of voxels from the time of infarction to the time when the voxel is divided into infarct areas.
  • training and learning means that the correspondence is corrected, supplemented, or corrected as the incidence of infarct-quantitative value set data is continuously accumulated.
  • the classifier may learn to recover from infarction by classifying a set of quantitative values accumulated from voxels recovered from infarction, and classify the bouts into infarct and non-recoverable groups.
  • the voxels recovered from the infarction may be voxels extracted from brain images whose infarct time is unknown, and the corresponding relationship is actually generated as a result of repeating the process of mapping the quantitative value set of the voxels to the time of occurrence. Evaluate exactly how much time you estimate.
  • the validity of the correspondence relationship may be evaluated by matching the occurrence time of the infarct region with a set of quantitative values of the voxels known to the corresponding time.
  • 21 is a diagram for explaining an example of the correspondence relationship generated by the regression analysis.
  • multi-modality brain images may be obtained from patients whose timing of occurrence of infarct area is known (clear onset). From these multi-modality brain images, quantitative value sets of voxels in the infarct region can be accumulated. In addition, animal experiments can be used to accumulate a set of quantitative values that change over time from the time of infarction of voxels in the infarct region for the same subject.
  • Onset time f (DI DWI , D , DI FLAIR , DI T1 , (x, y, z), DI pWI , ...) can be defined.
  • the classifier may be trained to classify the occurrence time of the voxel, but may directly classify the quantitative value set of the voxel into the infarct-recovered and unrecovered voxels.
  • FIG. 22 illustrates a reduced infarct region excluding infarct recoverable voxels.
  • the classifier may classify the time points of infarction of each voxel or classify the infarct recoverable voxel and the unrecoverable voxel.
  • the estimated infarct region 30 may be smaller than the initially divided infarct region 10.
  • the overestimated infarct region 20 may be more accurately evaluated by estimating infarct recovery on a voxel basis, thereby providing more objective and quantitative information about the PWI-DWI mismatch.
  • 13 to 22 may be automatically performed by an application made for each process or may be performed together with a user interface.
  • FIGS. 23 to 36 are diagrams for explaining examples of a method for automatically analyzing a stroke according to the present disclosure, in which a stroke onset time (stroke occurrence or onset time) of a patient who comes to an emergency room is within 4 hours and a half; There is a standard to perform thrombolysis. However, most strokes are not cleared and the causes are various. Therefore, there is no evidence yet, except that it is within four and a half hours from the present occurrence.
  • stroke onset time stroke occurrence or onset time
  • Examples of the method for automatically analyzing the strokes disclosed in FIGS. 23 to 36 do not provide a direct therapy, but provide a means of providing information that can be referred to the practitioner as well as the practitioner. For example, even if you are not a specialist, or if your stroke onset time is less than or equal to four and a half hours, or less than, brain images can be used to determine the proportion of infarct and penumbra and areas in the brain. If there is no difference between the infarct area and the surrounding area within 4 hours and a half, the thrombolysis may not be performed. If the difference is greater than 4 hours and a half, the means may be provided to provide a standard for quantitative judgment. have.
  • the examples to be described provide a method of analyzing not only the ratio of the infarct and the peripheral area but also the area of the brain where the infarct area occurs, and is characterized by automating the analysis process.
  • the automatic analysis method of stroke according to the present example can also be used as a quantitative tool in the task of analyzing a person who has undergone thrombolysis and a person who has not had a thrombolysis as well as the prognosis and adverse events in each case.
  • FIG. 23 is a conceptual diagram illustrating the characteristics of the automatic stroke analysis method.
  • various images are generated while acquiring brain images by MRI.
  • the ADC map is created in the DWI, the ADC is thresholded to segment the infarct region, and the false positive is removed. Histogram matching may be applied to the division of the infarct region in addition to the threshold holding.
  • FLAIR fluid-attenuated inversion recovery
  • the FLAIR image is an image that nulls the signal coming from the fluid.
  • FLAIR images are used to suppress the effects of cerebrospinal fluid in the images when acquiring brain images by MRI.
  • FLAIR images show the anatomy of the brain well. Depending on the tissue, a good choice of inversion time can suppress the signal from a particular tissue.
  • This example provides information by integrating these images (DWI, PWI, FLAIR, etc.).
  • template images of the brain with atlas information are also integrated.
  • the size of the infarct and surrounding areas is also important, but it is more important where the infarct area of the brain occurs.
  • the template image is used to generate information about this.
  • the template image is a region divided (divided) by the standard brain according to the atlas information, for example, in the brain image, such as areas such as hyper camphor, amigdala, salamus, white meter, and gray meter are standard. It is decided.
  • We use these atlas maps template images because they vary from person to person, but not very differently.
  • the infarct area mask in which the infarct area is divided is overlaid on the template image of the brain, information on which part of the brain is generated and how much is generated. For example, when the brain image template is matched with the brain image of the patient, it is possible to determine which part of the brain and the size of the infarct region divided in the brain image of the patient. Similarly, the PWI in which the peripheral area is divided may also be matched with the template image to determine which part of the brain corresponds to and how much size the peripheral area corresponds to. In addition, by overlapping in this way, information about a DWI-PWI mismatch can be obtained. In particular, when FLAIR also overlaps, additional structural information of the brain can be added, and the damage or problem that has already existed before the infarct region in the infarct region or the peripheral region can be detected from FLAIR.
  • FIG. 24 is a diagram illustrating an example of an automatic analysis method of stroke according to the present disclosure.
  • the DICOM data is taken and histogram matching is performed to segment the infarct region. do.
  • the volume of the divided infarct area is measured. After that, the FROC optimization process is performed.
  • An example of partitioning the surrounding area from the PWI is to take DICOMs data, check the phases, and realignment. Then, spatial and temporal smoothing, and parallelized gamma fitting are performed, TTP is calculated to find the MCA, and AIF is determined. Thereafter, deconvolution is performed to calculate PTT penumbra segmentation by calculating MTT, CBF, CVB, and Tmax.
  • DWI-PWI mismatches involves analyzing DWI-PWI mismatches and merging with FLAIR.
  • DWI, PWI, and FLAIR can be integrated into the Atlas template, controlled, and visually displayed.
  • FIG. 25 is a diagram for explaining an example of an atlas template.
  • a template is a standard image that is already developed and used to create a common one in which people have different brains. This example provides a method for automatically analyzing strokes using four of these: DWI, PWI, FLAIR, and Standard templates.
  • the brain is divided so that the patient's brain is segmented with reference to the standard template where the visual cortex is located and the back is divided (template segmentation).
  • image types to be used include DWI, PWI, and FLAIR.
  • T1 images may be used.
  • infarct areas or peripheral areas may be analyzed for each part of the brain in each image. Matching may be used to transfer from template to DWI, PWI, FLAIR, or vice versa.
  • the patient's brain is segmented with the labeling intact, and then reversed. . You can then see where the infarct area is located in the brain (atlas).
  • the brain regions corresponding to the list may be labeled as the cursor moves on the display.
  • FIG. 26 is a view for explaining a feature of a method of dividing an infarct region from a DWI.
  • a template for histogram matching is generated, and the ADCs are read by reading dicoms b0 and b1000. Perform histogram matching. After that, the noise is removed from the ADC map (False positive reduction based on ADC), FROC analysis is performed, and final accuracy and false positive are checked.
  • FIG. 27 is a view for explaining the characteristics of the method of dividing the infarct area from the DWI. Acquisition of acute acute patient data using DWI b0 and b1000 is performed to prepare a gold standard.
  • the upper and middle figures of FIG. 27 are examples of the gold standard, in which a neurologist selects an infarct region. This can be used as a criterion for verification.
  • the lower figure of FIG. 27 shows the result of performing Volumetry analysis.
  • various methods may be applied. For example, it is possible to perform histogram matching, threshold-holding, or use an ADC map with DWI.
  • FIGS. 28 to 30 are diagrams for explaining characteristics of a method of dividing a peripheral area from a PWI.
  • the PWIs of the brain are aligned over time and smoothed with respect to time and space.
  • A, a, and B coefficients are obtained through the Gamma curve fitting, and the normalized root-mean-square error (NRMSE) of the gamma curve fitting is about 2.67%, 11118 voxels.
  • NPMSE normalized root-mean-square error
  • AIF arterial input function
  • AIF is required to implement various analysis maps (MTT, CBF, CBV, Tmax, etc.).
  • MCA middle cerebral artery
  • the upper left figure of FIG. 29 shows an example of a Gamma curve fit, with a black open circle indicating a value (y-axis) reflecting the concentration of contrast agent over time (x-axis) seen at any voxel in the PWI. do.
  • the solid curve is a gamma curve fitted to the PWI.
  • AIF is determined in the upper left graphs of FIG. 29 to determine the MCA.
  • TTP time-to-pick
  • MTT mean transit time
  • CBF cerebral blood flow
  • CBV cerebral blood volume
  • TTP time-to-pick
  • deconvolution can be viewed as a kind of dividing method, and the standard is AIF.
  • AIF the process of determining the aforementioned MCA is preceded.
  • TTP in the deconvolution state, i.e., Tmax.
  • the curve is generated separately depending on how far the delay or spread is as compared to the curve or profile that provides the best blood flow. In other words, dividing a poor blood supply curve into the best curve yields a distinct curve with a peak between the best and the poor curve. You can see how many delays are based on the best curves for these distinct curves.
  • FIGS. 29 to 30 are diagrams illustrating the analysis results of FIGS. 29 to 30, wherein peripheral regions may be divided as regions where there is a delay in reaching blood as a result of the analysis.
  • the infarct region is shown here, and as shown in FIG. 31, the region-specific PWI over time can be analyzed.
  • FIG. 32 the image of time passing from right to left, and the area indicated by the circle, contrast medium is well seen as the intensity difference.
  • the region where blood supply is delayed can be seen that this intensity difference is weak and slow with time.
  • FLAIR shows brain structure better. People who have previously damaged certain parts of the brain do not need to be treated. For example, if a surviving person is already injured after 5 or 6 years of treatment, the already broken part does not need to be treated. I can judge it as a fall.
  • FIG. 35 is a view for explaining an example of automatically showing an analysis result incorporating DWI-PWI-FLAIR, a template.
  • an infarct region and a peripheral region are shown, and a pie chart shows a ratio between them.
  • An example of DWI-PWI mismatch analysis is to segment areas where blood supply is not smooth but tissues are still alive (ischemic penumbra) from PWI analysis images. From the DWI analysis, the areas of damaged brain tissue (ischemic infarcts) are segmented. Comparing DWI and PWI, calculate how widely the ischemic semi-shaded area is distributed.
  • DWI-PWI mismatch is large, it is necessary to quickly pierce the blockage by thrombolysis, which provides a means to help quantitatively.
  • the surrounding area is small, if the area is very important to a person, that is, such information is provided by template segmentation, even if the surrounding area is small, it is better to perform the procedure. Automatically gives you quantitative information to help you make this decision.
  • 36 is a diagram illustrating the aforementioned methods as an example of a user interface, and is an example of a GUI for analyzing a stroke image biomarker. It can be designed to reflect the needs of users and can be continuously improved.
  • FIG. 37 is a diagram illustrating an example of a method of extracting a representative image from a medical image according to the present disclosure.
  • the location of interest is first selected from the medical image (S21). Thereafter, the medical image is processed by the image processing instruction according to the type of the lesion, and the region of interest including the ROI is extracted (S31). Next, a representative image is generated in consideration of a safety margin in the divided ROI (S41).
  • the type of lesion may be selected before the location of interest is selected. Once the type of lesion is selected, the medical image can be used to execute a classifier's learning routine for allogeneic diseases.
  • the location of interest may be selected by specifying a point or specific location on the medical image via the user interface.
  • the image processing instruction according to the type of the lesion may include an image processing condition of dividing or threshold-holding the lesion.
  • the representative image may be generated by giving a certain safety margin to the region of interest so that the extracted region of interest is included in the representative image.
  • Series information related to patient information including the sex and age of the individual, study information related to organs or parts of the body, types of lesions, etc., for retrieval and management during the generation of representative images.
  • At least one of the images may be matched to the representative image.
  • the representative image may be stored hierarchically. The user can use the matched information to search and manage the representative image.
  • the representative image includes a characteristic portion of the medical image through a feature of the medical image, that is, an image processing process according to a lesion. Therefore, a doctor searching a plurality of representative images at once can easily browse and browse the characteristics of a medical image, and can easily store, search, and manage hierarchically by patient, study, and series.
  • the process of generating the representative image may be automatically performed by a computer by an input by a simple user interface, and thus it is convenient to generate the representative image in the field of handling a plurality of medical images.
  • 38 is a diagram illustrating an example of a process of selecting a lesion through a pop-up window.
  • the type of lesion may be selected through a pop-up window before the location of interest is selected in the medical image.
  • the method of extracting the representative image from the medical image according to the present example may be applied to various medical images for lung, heart, brain, kidney, liver, etc., and the subject is not particularly limited.
  • the method of extracting the representative image from the medical image according to the present example may be performed by software, and has the feature of making the most impressive feature of the medical image into the representative image according to the type of lesion. Therefore, it is preferable to include the process of selecting the type of lesion through the pop-up window, as shown in FIG.
  • the pop-up window may include an add button and a delete button of the lesion or the medical image.
  • FIG. 39 illustrates an example of a method of selecting a view in a 3D medical image.
  • the location of interest is selected in the medical image (S21).
  • the selection of the location of interest may be done after the type of lesion has been selected, as described above, or when there is no selection of the lesion. However, when the type of lesion is selected, an image preprocessing process may be performed to assist in selecting a location of interest through information on a medical image or visually for selecting a location of interest.
  • the location of interest may be selected from the 2D medical image, but may include a process of selecting a view by rotating the 3D medical image.
  • the image acquired by the medical imaging apparatus such as CT and MRI may be 3D volume data 10.
  • the medical image is extracted from the 3D volume data 10 as needed.
  • the 3D volume data may be extracted in a manner in which the surface of the 3D image is projected according to the views 1 and 3 (viewing direction).
  • a medical image may be generated in various views using 3D volume rendering, surface rendering, MIP / MinIP, RaySum, and Virtual Endoscopy.
  • the two-dimensional cross section 20 may be extracted from the three-dimensional volume data.
  • Such views include, for example, representative orientations of the body such as axial, sagittal and coronal.
  • the extracted medical image is basically 2D, but also includes a 3D image (eg, 30 and 40).
  • two-dimensional medical images may be generated as three-dimensional, four-dimensional, and five-dimensional medical images.
  • the method of extracting a medical image may directly extract a portion of the 3D volume data including the lesion 15 from the 3D volume data 10.
  • the 3D representative image eg, a thumbnail
  • the extracted 3D volume data is included in the scope of the present disclosure.
  • the medical image may be used to allow a doctor or user to designate a specific location or point of interest. This is further described below.
  • 40 is a diagram illustrating an example of an image of a lung.
  • the location of interest is selected in the medical image obtained as described above.
  • the location of interest may be a specific location (eg, a center) of lung diseases such as Tumor, Emphysema, Honeycomb, GGO, and Micro-calcification shown in a lung image as shown in FIG. 40.
  • This selection of the location of interest may be specified by the physician via an interface means such as a mouse.
  • the lesions are divided and visualized in the lung image so that the doctor or user can conveniently select the location of interest.
  • a method of automatically classifying lung diseases using the classifier disclosed in Korean Patent Publication No. 998630 may be used.
  • the classifier's learning routine may be performed on the allogeneic disease using the medical image.
  • Lung diseases may be displayed on the lung image shown in FIG. 40 by using the automatic classifier.
  • the location of interest may be selected by a doctor designating a center or a specific location of a predetermined area of the lesions thus divided and displayed.
  • the computer may automatically select a specific location of the lesion.
  • the distance map may be used to establish a condition, such as distance from the boundary of the lesion, to capture points within the lesion. It will then be possible for the doctor or user to verify the automatically selected location of interest.
  • the method of extracting the representative image from the medical image according to the present example does not necessarily include the process of classifying the lesion by the automatic classifier.
  • 41 is a diagram illustrating an example of a process of generating a thumbnail.
  • the location of interest 61 is designated in the medical image 50.
  • the medical image 50 may be a portion of 3D volume data directly extracted to include the lesion 15 from the medical images 20, 30, and 40 or the 3D volume data 10 described with reference to FIG. 39.
  • the region of interest 70 may be extracted by image processing the medical image based on the location of interest 61 by an image processing instruction according to the type of lesion (S31).
  • a method of extracting a representative image from a medical image according to the present example is a case sensitive method.
  • a method of extracting a representative image from a medical image includes a predetermined region including the location of interest 61 using an image processing instruction that is preset or set according to the type of lesion. The image processing process extracts the region of interest 70 to be included in the representative image.
  • the image processing instruction may include conditions (eg, a threshold method, a threshold value, a lesion size filtering condition, etc.) for segmenting the lesion using the seed 61 of interest as a seed. do.
  • the region of interest 70 is segmented according to an image processing instruction for threshold-holding a predetermined region including the region of interest 61.
  • a representative image eg, thumbnail
  • a region of interest is divided by Tumor Segmentation, which is shown in FIG. 41 (c).
  • a thumbnail is generated as shown in FIG. 41 (d) by giving a safety margin 75.
  • a thumbnail as shown in FIG. 41 (e) is created so that the safety margin 75 enters the box 80.
  • the image processing instruction may be received in advance with a segmentation method (eg, an adaptive threshold) or other condition. Granting a safety margin 75 means that some thumbnails of the periphery of the region of interest are included in the thumbnail, for example, to include the segmented region of interest 70.
  • the size of the divided lesion is larger than the size of the thumbnail (for example, Fig. 41 (d) or 41 (e)), it is also possible to change the size of the thumbnail to include the entire divided lesion, In special cases, such as fixing the size of a nail, it is possible to thumbnail only part of the lesion.
  • the region of interest including the lesion is divided according to an image processing instruction such as a threshold holding of -950 HU or less, and as shown in FIG. 41 (c), the safety margin 75 is shown.
  • the thumbnails secured may be generated.
  • the image processing instruction may include texture based segmentation. For example, a region using a honeycomb pattern around a location of interest may be divided by a classification using an automatic classifier that automatically classifies lung diseases as described above. After that, a thumbnail with a safety margin is generated.
  • the autologous classifier learning routine can be performed. For example, you can train autoclassifiers by selecting multiple areas of interest, or thumbnails of the same kind, to indicate the same disease. This learning can then be used for searching.
  • the image processing instruction may be configured so that the normal portion is extracted to the region of interest.
  • FIG. 42 is a diagram for explaining an example of a method of capturing an image when thumbnails are generated.
  • the representative image may be generated as shown in, for example, FIG. 42 (a) or 42 (b).
  • a popup window for generating a representative image is displayed.
  • the line method shown in FIG. 42 (a) takes a center in a medical image such as MPR, VR, MIP, and sets a boundary by dragging, and a thumbnail capture of an ROI circumscribing a circle is generated.
  • the rect method shown in FIG. 42 (b) can dragging the start and end directly to an image such as MPR, VR, MIP, and the like.
  • the process of taking a center and dragging the center and dragging the start and end directly on the image can be performed by the computer's internal calculation process. It is of course also possible for the process of taking and dragging the center, dragging the start and end directly on the image, by the user interface.
  • the full method can generate full ROI thumbnails by picking on medical images.
  • the cine method stacks a plurality of extracted regions of interest and generates a thumbnail that is animated over time. In this case, the images should be selected.
  • the thumbnail can be generated by giving the start angle, the end angle, and the interval angle, and it may be necessary to query each angle.
  • 43 is a view for explaining an example of an image that changes with time.
  • the medical image may need to show a change over time, as described above. As illustrated in FIG. 43, the medical image may change along the time axis.
  • the representative image in this example may generate a plurality of representative images at time intervals, and thumbnail them into images that change over time.
  • a changing or moving thumbnail may be generated by dividing a region of interest at different times or in different conditions in a plurality of times in a medical image that changes according to additional conditions including at least one of time and drug administration.
  • 44 is a view for explaining an example of a manner in which thumbnails are stored and retrieved.
  • At least one of patient information, study information, and series information may be matched to the representative image for search and management.
  • the representative image is hierarchically stored according to the matched patient information, study information, and series information.
  • Figs. 44A and 44B For example, if a particular patient is selected, a particular study is selected, and a specific series is selected as shown in Figs. 44A and 44B, representative images are displayed, and a doctor or a user is visually and intuitively selected from the representative images. This enables you to get critical information about medical images, and to easily search and manage them. In addition, it is easy to browse representative images for each patient and series for each study, and if necessary, search using text information (patient, study, series, etc.) is possible.
  • the gray scale of the representative image may be changed to view another lesion using the representative image.
  • a medical image management browser for generating, storing, retrieving, and managing a representative image has a function of adjusting WWL to view calcification even if a representative image is generated at WWL (Window Width Level) during Lung Settting.
  • WWL Wind Width Level
  • the WWL can be adjusted using the pre-determined WWL while maintaining the original density level (usually 12 bit / voxel) of the original image.
  • the method of extracting a representative image from a medical image according to the present disclosure may be executed by a medical image manager program that generates, stores, retrieves, and manages the representative image.
  • a segmentation method of cerebral infarction regions comprising: generating a template histogram of a brain image using a plurality of brain images; Matching the histogram of the brain image to be divided with the template histogram; And dividing the cerebral infarction region based on a threshold value selected based on the template histogram in the matched histogram.
  • (2) generating the template histogram includes: matching another histogram with respect to any one of the plurality of DWI brain histograms; And calculating an average of the matched histograms.
  • (3) matching the template histogram may include: modifying the intensity range equally to the intensity range of the template histogram while maintaining the same probability distribution of the histogram of the brain image. Way.
  • (4) generating the template histogram includes: matching another histogram with respect to any one of the plurality of DWI brain image histograms; Obtaining a mean value and a standard deviation of intensities of pixels in the cerebral infarction region for each matched plurality of DWI brain images; And obtaining a mean value and a standard deviation of intensities of pixels in regions other than the cerebral infarction region, for each of the matched plurality of DWI brain images.
  • dividing the cerebral infarction region selecting an threshold value in consideration of the standard deviation of each of the plurality of DWI brain images so that the cerebral infarction region is divided into user-set reliability; Way of dividing.
  • (6) excluding a region that is not a cerebral infarction region among the regions divided into the cerebral infarction region by a threshold value; and dividing the cerebral infarction region, comprising:
  • the process of selecting the threshold value includes: obtaining an average value and standard deviation of intensity of pixels in the ventricle region for each of the plurality of DWI brain images; And modifying the threshold value in consideration of the average intensity value of the ventricle region.
  • Extract infarct region by applying template histogram from DWI image eg B1000, B0
  • extract infarct region by applying template histogram from ADC image and consider them together (eg B1000, B0, ADC image)
  • It is also possible to find a true infarct area eg, an area that overlaps with the infarct area).
  • the histogram is generated based on the DWI B1000 image, the ventricle region is generated based on the DWI B0 image segmentation method of the infarction region.
  • a method of distinguishing cerebral infarct regions included in a brain image comprising: extracting a quantitative value set including brightness information of each point in an infarct region included in at least one brain image; And estimating the likelihood of recovery from the infarction of each of the points based on the difference in the quantitative set of values between the points in the infarct area.
  • extracting a quantitative value set includes: extracting intensity of each point in each infarct region included in the plurality of brain images; And extracting a distance from the reference point of the infarct region of the at least one brain image of each of the plurality of brain images to each of the points.
  • the process of extracting the distance to the point includes: generating a distance map of the infarct region; And extracting a distance from the center of the infarct region to each point using a distance map.
  • the classifier uses the multiple regression method, the support vector regression method, and the curve fitting of a set of quantitative values of the points of infarct regions accumulated from brain images of different people whose incidences of infarction are known.
  • a method of dividing the cerebral infarction region characterized in that the classification using at least one of the group consisting of a method.
  • the plurality of brain images include two or more selected from the group consisting of DWI image, ADC image, PWI image, FLAIR image, T1 image and T2 image by MRI, and before extracting a quantitative value set, Segmenting the infarct region using a DWI image or an ADC image; Dividing a penumbra around the infarct region using a PWI image; And matching the brain images including the DWI image in which the infarct region is divided, the ADC image, or the PWI image in which the peripheral region is divided.
  • the set of quantitative values of a point consists of the position (x, y, z) of the point in the brain image, the brightness of the point DI DWI , DI pWI , DI ADC , DI FLAIR , DI T1 and DI T2 With at least one of Distance from center of infarct area D DWI , D pWI D ADC , D FLAIR , D T1 and D T2
  • a method of dividing the cerebral infarction region characterized in that it comprises at least one of.
  • a method for automatically analyzing stroke comprising: automatically dividing infarcts using DWI; Automatically dividing a penumbra using PWI; Registering a DWI image obtained by dividing the infarct region and a PWI image obtained by dividing the peripheral region with a template brain image; And analyzing the DWI-PWI mismatch in the determined image.
  • Automatic segmentation of infarcts using DWI includes: generating a template for histogram matching; Creating an ADC by reading the dicom b0 and b1000; Performing histogram matching; Removing noise from the ADC map (False positive reduction based on ADC); And performing a FROC analysis and checking the final accuracy and false positives.
  • Automatic segmentation of the penumbra using PWI includes: importing DICOMs data, checking for phases, and realignment; performing spatial and temporal smoothing, and parallelized gamma fitting; Calculating TTP to find MCA and determining AIF; And performing a deconvolution using AIF to calculate Tmax.
  • a method of extracting a representative image from a medical image for searching and managing comprising: selecting a location of interest in the medical image; Extracting a region of interest including an ROI by image processing the medical image according to an image processing instruction according to the type of lesion; And generating a representative image by assigning a safety margin to the extracted ROI.
  • the selecting of the location of interest in the medical image may include: specifying a location of interest on the medical image through a user interface, wherein the representative image is extracted from the medical image.
  • the extracting the ROI may include: segmenting the ROI according to an image processing instruction for segmenting a lesion including the ROI.
  • the extracted representative image of the medical image may include: How to produce.
  • the extracting the ROI may include: dividing the ROI according to an image processing instruction that thresholds the lesion including the ROI.
  • the extracted representative of the medical image may include: How to create an image.
  • Selecting a location of interest in the medical image comprises: selecting a view by rotating the 3D medical image; and extracting the representative image from the medical image.
  • extracting the region of interest includes: dividing the region of interest over a plurality of times by varying additional conditions in a medical image that varies according to additional conditions including at least one of time, contrast agent, and drug administration; Method for extracting a representative image from the medical image, characterized in that.
  • the extracting the ROI may include: extracting a plurality of ROIs by determining an angle range and an interval angle of the view, and generating the representative image:
  • the generating of the representative image includes: matching at least one of patient information, study information, and series information with the representative image for searching and managing; And storing the representative image hierarchically according to the matched patient information, study information, and series information.
  • the representative image is extracted from the medical image. Way.
  • the method may include: a process of designating at least one point on a lesion of a medical image through a user interface, wherein the region of interest is segmented: segmenting or threholding the lesion using a seed of a location of interest. And dividing the ROI according to an image processing instruction.
  • the representative image is generated as a thumbnail, and the thumbnail includes patient information and a study for searching and managing. at least one of the study information and the series information is matched, and a thumbnail is generated according to the matched patient information, the study information, and the series information.
  • the cerebral infarct region can be accurately and quantitatively divided based on the histogram.
  • the cerebral infarct region may be automatically divided by applying a threshold value to the histogram.
  • the voxels in the infarct region reveal the different time of occurrence or the possibility of infarct recovery, and disclose a method of determining the infarct region more accurately.
  • the present disclosure provides a basis for quantitatively and objectively determining the area likely to survive in the overestimated infarct area for each voxel.
  • a mismatch between infarct region and peripheral region is automatically analyzed to provide a means for judgment.
  • the method of automatically analyzing another stroke while providing a means of judgment by automatically analyzing mismatches of infarct area and peripheral area, it is also possible to determine the part of the brain together. to provide.
  • the representative image includes a characteristic portion of the medical image through an image processing process according to a feature of the medical image, that is, the study or thesis writing, For example, a doctor or a researcher who searches a plurality of representative images at once can easily browse and browse the characteristics of a medical image.
  • the process of generating the representative image may be automatically performed by a computer by input by a simple user interface, and thus it is convenient to generate the representative image in the medical imaging field covering a plurality of medical images.
  • the doctor or researcher since the representative image is stored hierarchically according to patient information, study information, and series information for retrieval and management while the representative image is generated, the doctor or researcher It is easy to search and manage the representative image of the medical image using the information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 개시는 뇌경색(cerebral infarction) 영역의 분할(segmentation) 방법에 있어서, 복수의 뇌영상을 사용하여 뇌영상의 템플릿 히스토그램이 생성하는 단계; 분할 대상이 되는 뇌영상의 히스토그램을 템플릿 히스토그램에 매칭하는 단계; 그리고 매칭된 히스토그램에서 템플릿 히스토그램을 기초로 선정된 쓰레쉬홀드(threshold) 값을 기준으로 뇌경색 영역을 분할하는 단계:를 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법에 관한 것이다. 또한,이러한 분할된 뇌경색 영역에서 회복 가능한 영역을 추정하는 뇌경색 영역의 구분방법에 관한 것이다. 또한, 뇌졸중을 자동으로 분석하는 방법에 관한 것이다. 또한, 의료영상으로부터 대표영상을 추출하는 방법에 관한 것이다.

Description

뇌경색 영역의 분할 방법
본 개시(Disclosure)는 뇌경색 영역의 분할 방법{SEGMENTATION METHOD OF CEREBRAL INFARCTION REGION}에 관한 것으로, 특히 쓰레쉬홀드 값을 기준으로 자동으로 뇌경색 영역을 분할하는 뇌경색 영역의 분할 방법에 관한 것이다.
또한, 본 개시(Disclosure)는 뇌경색 영역의 구분 방법에 관한 것으로, 특히 뇌경색 영역의 점들 각각에 대해 회복 가능한 점을 구분하는 뇌경색 영역의 구분 방법에 에 관한 것이다.
또한, 본 개시는 뇌졸중을 자동으로 분석하는 방법에 관한 것을 특히, 템플릿 영상과 뇌영상을 함께 사용하여 경색 영역과 주변 영역을 분석하는 뇌졸중을 자동으로 분석하는 방법에 관한 것이다.
또한, 본 개시(Disclosure)는 의료 영상으로부터 대표 영상을 추출하는 방법에 관한 것으로, 특히 병변과 같은 의료 영상의 특징을 잘 나타내는 의료 영상으로부터 대표 영상을 추출하는 방법에 관한 것이다.
여기서는, 본 개시에 관한 배경기술이 제공되며, 이들이 반드시 공지기술을 의미하는 것은 아니다(This section provides background information related to the present disclosure which is not necessarily prior art).
의료 영상을 사용하여 병변의 상태를 평가하는 방법이 널리 사용되고 있다. 예를 들어, 뇌경색(cerebral infarction) 또는 뇌출혈(cerebral hemorrhage) 등 급성 뇌졸중(acute stroke) 환자의 경우 MRI로 뇌영상을 찍어 경색 영역을 평가한다.
뇌졸중의 경우, 신경기능의 회복을 위해 신속한 평가와 치료를 하는 것이 중요하다. 이를 위해 뇌경색 영역을 정확히 평가하는 방법이 연구되어 왔다. 예를 들어, MRI 영상으로서 뇌의 혈류를 보여주는 perfusion-weighted imaging(PWI)와 물분자의 확산을 보여주는 diffusion-weighted imaging(DWI)가 급성 뇌졸중 환자를 평가하는 데에 사용되어 왔다. DWI에서 물분자의 확산 정도는 물분자의 에너지에 영향을 받으며, 따라서 온도에 영향을 받는다. 생체 내에서는 조직, 세포의 격벽, 혈관 구조 등에 의해 확산이 제한된다. 급성 뇌졸중 평가에서 DWI의 비정상(abnormalness)은 허혈(ischemia)의 징표이며, 이는 전형적으로 뇌경색으로 진행한다.
PWI에 나타난 뇌경색 영역과 DWI에 나타난 뇌경색 영역은 뇌졸중의 발생 시점에 관련 있으며, 일정 시간 이내에는 이들이 일치하지 않는 경우가 많다. 따라서 급성 허혈성 뇌졸중(acute ischemic stroke)에서 PWI-DWI mismatch에 대한 정량적 평가가 중요하다. PWI-DWI mismatch 영역은 허혈에 의해 영향을 받은 주변부(ischemic penumbra)로서 치료에 의해 다시 살아날 수 있는 영역으로 평가되기 때문이다. 따라서 DWI에서 정확하게 경색 영역의 코어(core)를 분할하는 것이 중요하며, 분할의 방법으로는 예를 들어, 어뎁티브 쓰레쉬홀드 알고리즘이 사용될 수 있다.
실재 현장에서 PWI-DWI mismatch 분석이 수동으로(manual)로 의사에 의해 이미지 에티팅 등의 방법으로 수행되고 있다. 따라서 의사마다 경색 영역을 평가에 차이가 있을 수 있다. 그러므로 객관적이고 정략적이며, 자동으로 경색 영역을 분할하는 방법이 요구된다.
미국 등록특허 제8,125,223호에는 DWI 기반으로 경색 영역(infarction region)을 분할하는 방법이 개시되 있다. 그러나 상기 문서에 개시된 방법은 개별적인 DWI 영상에서 경색 영역을 분할하는 특수한 방법에 대한 것이고 쓰레쉬홀드 값을 어떻게 설정하여 자동으로 경색 영역을 분할할 것인지에 대해서는 개시하지 못한다.
급성 뇌경색 환자에 대해 혈전 용해술과 같은 치료를 행하기 위한 조건은 뇌 졸중 발생시점(onset time)으로부터 4.5 시간 이내에 시행하도록 국제기준으로 권고 되고 있다. 발생 시점을 추정하는 방법의 일 예로, 논문 Cho AH, Sohn SI, Han MK, et al. Safety and efficacy of MRI-based thrombolysis in unclear-onset stroke. A preliminary report. Cerebrovasc Dis 2008;25:572-579.에는 뇌경색의 발생 시점이 불확실한 환자에 대해 MRI의 FLAIR(fluid-attenuated inversion recovery) 영상으로 경색 영역의 발생 시점을 추정하는 방법이 개시되어 있다. 상기 논문에서 발생 시점 추정의 근거로 사용된 MRI 기반 조건은 positive perfusion-diffusion mismatch(PWI-DWI mismatch) 조건과 absence of well-developed fluid-attenuated inversion recovery changes of acute diffusion lesions(FLAIR CHANGE) 조건을 포함한다.
상기 발생 시점 추정 방법 이외에 또한, PWI-DWI와 같이 경색 영역과 주변 영역 간의 미스매치가 큰 경우 혈전 용해술에 의해 회복될 영역이 커서 용해술 시행이 더 바람직할 수 있다.
그러나 종래에는 뇌 영상에서 경색 영역의 분할을 일률적인 쓰레쉬홀딩하거나 영역의 평균값을 사용하여 평가해 왔다. 그러나, 혈전용해술 시행 후에 경색 영역으로 분할된 부분이 일부 회복되는 경우가 보고되고 있다. 이는 경색 영역 내에서도 온샛 타임이 다르고, 경색 회복 가능성이 서로 다른 것을 시사해 준다. 즉 경색 영역이 동질적이지 않고 이질적임을 보여준다. 따라서 경색 영역이 현재는 과평가 되는 것으로 볼 수 있다.
뇌졸중 환자가 응급실에 도착하는 경우, 일정 시간 이내 혈전 용해제를 주입하는 시술을 하여야 한다. 그러나, 시간이 경과하여 경색(infarct) 영역이 뇌전체의 일정 부분 이상이 넘어가는 경우 혈전 용해제를 주입하는 시술을 수행할 수 없는데 일반적으로 응급실에는 이러한 판단을 전문적으로 할 수 있는 전문의가 부족한 문제점이 있다.
의료 영상을 사용하여 병변의 상태를 평가하는 방법이 널리 사용되고 있다. 의료 영상을 이용한 매일 매일의 진단 및 평가뿐만 아니라 연구를 위해 의료 영상을 편리하고 빠르게 검색 및 관리할 필요가 있다. 대용량의 의료 영상 데이터를 오랜 시간 동안 저장, 검색 및 관리하기 위해 의료 영상 관리(medical image manager) 소프트웨어가 개발되고 있다.
대부분 의료 영상은 2D images, 3D/4D/5D Volume 형태가 기본 단위인데, 결국, 의료 영상의 세부적인 특징을 알기 위해서는 수백 메가에 이르는 볼륨을 일일이 로드(load)해야 한다는 불편함이 있다. 따라서 의료 영상에서도 디지털 카메라와 같이 전체 이미지의 축소판을 저장하여 보여주는 방식으로 대표 영상(예: 썸네일(thumbnail))을 생성함으로써, 이미지 전부를 로딩하지 않더라도 사용자가 쉽게 이미지를 보고 선별 및 선택 작업을 할 수 있다. 예를 들어, 의료 영상의 한 시리즈(series) 당 몇 백장에서 몇 천장이 있을 수 있는 것을 대표 영상 1 내지 5장으로 요약 필요성도 있다.
그러나 논문이나 연구를 위해서는 수많은 의료 영상을 검색해야 하지만 수많은 환자 데이터는 여러 형태로 저장된다. 보통 검색을 위한 정보는 텍스트로 있고, 환자 정보, 의료 영상의 생성시기, 신체 부위 등의 정보로 검색해야 하지만 의료 영상을 많이 다루는 의사는 의료 영상을 이미지로 기억하며 여러 영상을 한꺼번에 검토한다.
그런데, 의료 영상을 축소한 썸네일로부터는 의료 영상의 특징을 이미지로부터 쉽게 얻기에는 정보가 매우 부족한 실정이다. 따라서 해당 의료 영상의 내용을 가장 특징적으로 드러내는 양질의 이미지를 추출하여 썸네일을 생성하는 것이 요구된다. 또한, 다량의 의료 영상을 다루므로 이러한 썸네일 등 대표 영상의 생성 과정이 편리하도록 개발될 필요가 있다.
미국 공개특허공보 제2011/0286647호에는 body part, modality, date of image를 나타내는 3축을 따라 의료 영상의 Image piles(썸네일 등)을 저장한 image cube를 사용하여 브라우징하는 방법을 개시하고 있다. 그러나 이 문헌에는 의료 영상의 특징을 자동 또는 반자동으로 추출하고, 이를 이용한 의료 영상의 검색 및 관리 방법을 개시하지는 못한다.
이에 대하여 '발명의 실시를 위한 형태'의 후단에 기술한다.
여기서는, 본 개시의 전체적인 요약(Summary)이 제공되며, 이것이 본 개시의 외연을 제한하는 것으로 이해되어서는 아니된다(This section provides a general summary of the disclosure and is not a comprehensive disclosure of its full scope or all of its features).
본 개시에 따른 일 태양에 의하면(According to one aspect of the present disclosure), 뇌경색(cerebral infarction) 영역의 분할(segmentation) 방법에 있어서, 복수의 뇌영상을 사용하여 뇌영상의 템플릿 히스토그램이 생성하는 단계; 분할 대상이 되는 뇌영상의 히스토그램을 템플릿 히스토그램에 매칭하는 단계; 그리고 매칭된 히스토그램에서 템플릿 히스토그램을 기초로 선정된 쓰레쉬홀드(threshold) 값을 기준으로 뇌경색 영역을 분할하는 단계:를 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법이 제공된다.
본 개시에 따른 다른 하나의 태양에 의하면(According to another aspect of the present disclosure), 뇌영상에 포함된 뇌경색 영역의 구분 방법에 있어서, 적어도 하나의 뇌영상에 포함된 경색 영역 내의 점들 각각의 밝기 정보를 포함하는 정량적 값 집합을 추출하는 단계; 그리고 경색 영역 내의 점들 간의 정량적 값 집합의 차이를 기초로 점들 각각의 경색으로부터의 회복 가능성을 추정하는 단계;를 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법이 제공된다.
본 개시에 따른 또 다른 하나의 태양에 의하면(According to still another aspect of the present disclosure), 뇌졸중을 자동으로 분석하는 방법에 있어서, DWI를 사용하여 경색 영역(infarct)을 자동으로 분할하는 단계; PWI를 사용하여 주변 영역(penumbra)를 자동으로 분할하는 단계; 경색 영역이 분할된 DWI 영상과 주변 영역이 분할된 PWI영상을 템플릿 뇌영상과 정합하는 단계; 그리고 정한된 영상에서 DWI-PWI 미스매치를 분석하는 단계;를 포함하는 것을 특지응로 하는 뇌졸중을 자동으로 분석하는 방법이 제공된다.
본 개시에 따른 또 다른 태양에 의하면(According to further still another aspect of the present disclosure), 검색 및 관리를 위하여 의료 영상으로부터 대표 영상을 추출하는 방법에 있어서, 의료 영상에서 관심 위치를 선택하는 단계; 병변의 종류에 따른 영상 처리 지시에 의해 의료 영상을 영상 처리하여 괸심 위치를 포함하는 관심 영역을 분할하는 단계; 그리고 분할된 관심 영역에 안전 여유(safety margin)을 부여하여 대표 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법이 제공된다.
도 1은 본 개시에 따른 뇌경색 영역의 분할 방법의 일 예를 설명하는 도면,
도 2는 DWI 뇌영상의 일 예를 설명하는 도면,
도 3은 DWI 뇌영상에서 분할된 뇌영상의 일 예를 설명하는 도면,
도 4는 히스토그램 매칭 전에 복수의 환자들의 DWI 뇌영상에서 히스토그램의 평균 및 표준편차의 일 예를 설명하는 도면,
도 5는 히스토그램 매칭 방법의 일 예를 설명하는 도면,
도 6은 히스토그램 매칭의 수학적 기법의 일 예를 설명하는 도면,
도 7은 히스토그램 매칭 후에 복수의 환자들의 DWI 뇌영상에서 히스토그램의 평균 및 표준편차의 일 예를 설명하는 도면,
도 8은 템플릿 히스토그램에 분할 대상 히스토그램을 매칭하는 방법 및 경색 영역을 보정하는 방법의 일 예를 설명하는 도면,
도 9는 뇌실(ventricle)의 분할의 일 예를 설명하는 도면,
도 10은 ADC 영상에서 ROI Vs NonROI에 대해 히스토그램의 일 예를 설명하는 도면,
도 11은 복수의 환자들의 ADC 영상에서 ROI Vs NonROI에 대해 히스토그램의 평균 및 표준편차의 일 예를 설명하는 도면,
도 12는 쓰레쉬홀드 값, 경색 영역의 사이즈 및 ADC 쓰레쉬홀드 값을 파라미터로 하여 FROC 분석 그래프의 일 예를 설명하는 도면.
도 13은 본 개시에 따른 뇌경색 영역의 구분 방법의 일 예를 설명하는 도면,
도 14는 MRI에 의해 생성된 뇌영상들의 예들을 설명하는 도면,
도 15는 DWI 뇌영상에서 분할된 뇌영상의 일 예를 설명하는 도면,
도 16은 경색 영역의 복셀들 각각의 정량적 값 집합이 추출되는 방법의 일 예을 설명하는 도면,
도 17은 뇌 영상이 가우시안 로우패스필터에 의해 필터링되는 과정의 일 예를 설명하는 도면,
도 18는 경색의 발생 시점에 따라 DWI 영상에서 경색 영역의 밝기 변화의 일 예를 설명하는 도면,
도 19는 정량적 값 집합을 경색 발생 시점에 대응하는 관계를 다중 공간상의 점으로 이해하는 방법의 일 예를 설명하는 도면,
도 20은 분류자의 생성 방법의 일 예를 설명하는 도면,
도 21는 회귀분석에 의해 생성된 대응 관계의 일 예를 설명하는 도면,
도 22는 경색 회복 가능한 복셀들을 제외한 축소된 경색 영역을 설명하는 도면,
도 23은 뇌졸중 자동 분석 방법의 특징을 설명하기 위한 개념도
도 24는 본 개시에 따른 뇌졸중의 자동 분석 방법의 다른 예를 설명하기 위한 도면으
도 25는 아틀라스 템플릿의 일 예를 설명하기 위한 도면
도 27은 DWI로부터 경색 영역을 분할하는 방법의 특징을 설명하기 위한 도면
도 28 내지 도 30은 PWI로부터 주변 영역을 분할하는 방법의 특징을 설명하기 위한 도면들
도 31 및 도 32는 도 29 내지도 도 30의 분석 결과를 나타내는 도면
도 33 및 도 34는 FLAIR를 결합하는 것을 설명하기 위한 도면들
도 35는 DWI-PWI-FLAIR, 템플릿을 통합한 분석 결과를 자동으로 보여주는 일 예를 설명하기 위한 도면
도 36은 전술된 방법들이 사용자 인터페이스의 일 예로 표시된 도면,
도 37은 본 개시에 따른 의료 영상으로부터 대표 영상을 추출하는 방법의 일 예를 설명하는 도면,
도 38은 팝업창을 통해 병변이 선택되는 과정의 일 예를 설명하는 도면,
도 39는 3차원 의료 영상에서 뷰가 선택되는 방법의 일 예를 설명하는 도면,
도 40은 폐의 영상의 일 예를 보여주는 도면,
도 41은 썸네일이 생성되는 과정의 일 예를 설명하는 도면,
도 42는 썸네일 생성시 영상을 켑쳐하는 방법의 일 예를 설명하는 도면,
도 43은 시간에 따라 변하는 영상의 일 예를 설명하는 도면,
도 44는 썸네일이 저장 및 검색되는 방식의 일 예를 설명하는 도면.
이하, 본 개시를 첨부된 도면을 참고로 하여 자세하게 설명한다(The present disclosure will now be described in detail with reference to the accompanying drawing(s)).
도 1은 본 개시에 따른 뇌경색 영역의 분할 방법의 일 예를 설명하는 도면이다.
뇌경색(cerebral infarction) 영역의 분할(segmentation) 방법에서, 복수의 뇌영상을 사용하여 뇌영상의 템플릿 히스토그램(histogram)이 생성된다(S30). 예를 들어, DWI B0 및 B1000에서 템플릿(template) 히스토그램 획득된다. 템플릿 히스토그램 생성을 위한 사전 과정으로서 MRI로 획득된 뇌영상에 대해 BET 추출과정(S10)과 B1000에서 뇌를 추출하는 과정이 수행될 수 있다(S30).
본 개시에서 뇌경색 영역의 분할 방법은 MRI의 DWI를 중심으로 설명되지만, 모달리티가 다른 뇌영상을 사용하여 뇌경색 영역의 분할 방법을 적용하는 것이 고려될 수도 있다.
이후, 템플릿 히스토그램을 기초로 쓰레쉬홀드 값(threshold value; Th)가 선정될 수 있다(S40). 쓰레쉬홀드 값은 복수의 뇌 영상의 히스토그램을 사용하여 선정될 수 있다. 다음으로, 분할 대상이 되는 뇌영상의 히스토그램을 템플릿 히스토그램에 매칭한다(S60). 이후, 매칭된 히스토그램에서 쓰레쉬홀드 값(threshold value)을 기준으로 뇌경색 영역을 분할한다(S70). 이와 같이 선정된 쓰레쉬홀드 값에 의해 경색 영역을 자동으로 분할할 수 있다.
한편, 경색 영역으로 분할된 영역에는 비경색 영역이 일부 포함될 수 있다. 이와 같은 오류를 보정하는 과정이 수행될 수 있다. 예를 들어, DWI B1000에서 뇌실(ventricle) 분할되고(S51), 뇌실 및 non-infarct regions의 평균 및 편차가 모델링된 후에(S53), 쓰레쉬홀드 값이 보정될 수 있다(S55). 이에 더하여, DWI의 역상인 ADC을 이용하여 오류의 수정 과정이 수행될 수 있다(S80).
본 개시에 따른 뇌경색 영역의 분할 방법에 의하면, 뇌경색 영역이 자동으로 찾아지고 분할될 수 있다.
이하, 각 과정이 상세히 설명된다.
도 2는 DWI 뇌영상의 일 예를 설명하는 도면이고, 도 3은 DWI 뇌영상에서 분할된 뇌영상의 일 예를 설명하는 도면이다.
뇌영상의 템플릿 히스토그램 생성 전의 사전 과정으로서 DWI를 찍으면, 뇌 이외의 다른 영역(예: 잡음, CSF)과 같이 뇌졸중이 발생하지 않는 영역까지 포함된다. 이와 같은 영역을 BET와 같은 오픈된 소프트웨어로 뽑아낼 수 있다. 예를 들어, 도 2에서 화이트(white)는 DWI B0에서 BET 실행한 결과 추출된 뇌 마스크(brain mask)이다. 화이트 내측의 회색은 DWI B1000에서 Th=95로 추출된 뇌 마스크이다. 도 3(a)는 B1000에서 Th=90로 추출된 뇌 마스크이고, 대략 중앙에 Th=290로 추출된 경색 영역(10)이 나타나 있다. 도 3(b)는 DWI B0에서 반전(inversion) 영상을 보여준다. B0, B1000 중 B1000을 가지고 쓰레쉬홀딩하면 뇌가 더 잘 찾아질 수 있다. 본 예에서는 DWI를 사용하여 경색(infarction)의 코어(core)를 찾는다.
도 4는 히스토그램 매칭 전에 복수의 환자들의 DWI 뇌영상에서 히스토그램의 평균 및 표준편차의 일 예를 설명하는 도면이다.
어떤 환자의 DWI B1000 뇌영상의 히스토그램(예: 도 5(a) 참조)에서 가로축은 뇌영상에서 픽셀의 인텐시티(intensity; I)이고, 세로축은 뇌영상에 어떤 인텐시티를 가지는 픽셀의 개수(N)를 나타낸다. 즉, 히스토그램은 어떤 DWI 뇌 영상에서 인텐시티 값의 확률분포를 보여준다.
본 예에서는 19명의 환자들로부터 DWI 뇌영상을 획득한 후, 뇌실(ventricle), 경색 영역(infarction region) 및 비경색 영역(non-infarction region)이 구분된 복수의 초기 뇌영상을 기초로 템플릿 히스토그램을 생성하는 과정을 포함한다. 상기 복수의 초기 뇌영상에서 경색 영역은 의사에 의해 경색 영역으로 판정된 영역(예: 도 2의 10 참조)이며, 전술된 것과 같이 의사의 지식과 경험에 의해 수동으로 정해질 수 있다. 이렇게 의사에 의해 평가된 경색 영역, 비경색 영역 및 뇌실을 이루는 픽셀의 인텐시티 값의 평균 및 표준편차를 각각 구할 수 있다. 도 4에서 수평축은 환자의 번호를 나타내며, 세로축은 인텐시티 값을 나타낸다. 도 4에서 각 그래프는 19명의 뇌영상에서 경색 영역, 비경색 영역 및 뇌실의 평균값을 연결한 것이고, 표준편차가 상하 일정 범위로 표시되어 있다. 이와 같이 복수의 뇌영상의 히스토그램을 동시에 표시할 수 있다.
다수의 환자들의 히스토그램을 사용하여 자동으로 경색 영역을 분할해줄 쓰레쉬홀드 값이 선정될 수 있다. 예를 들어, 도 4에서 대략 Th1=170 정도로 쓰레쉬홀딩(thresholding)하면 복수의 환자들(1-19)의 경색 영역이 거의 다 포함되도록 분할될 수 있다. 그러나, 이 경우, 비경색 영역이 너무 많이 경색 영역으로 분할되는 것을 확인힐 수 있고, 그 결과 분할의 정확도가 떨어지는 문제가 있다.
도 5는 히스토그램 매칭 방법의 일 예를 설명하는 도면이다.
도 4와 같이, 복수의 히스토그램 자체에서 직접 쓰레쉬홀드 값을 정하는 방법은 정확도가 떨어지고 개별 환자별로 편차가 심해서 쓰레쉬홀드 값 선정에 곤란한 점이 있다. 따라서, 도 5에 도시된 것과 같이, 히스토그램 매칭 과정이 수행되며, 복수의 매칭된 히스토그램을 사용하여 템플릿 히스토그램이 만들어질 수 있다.
복수의 히스토그램을 매칭하는 방법의 일 예로, 1번 히스토그램을 기준으로 나머지 모든 히스토그램이 각각 매칭될 수 있다. 예를 들어, 히스토그램 매칭 과정은 나머지 히스토그램의 각각의 수평축의 인텐시티 범위가 1번 히스토그램과 동일하도록 변환(transformation)하는 과정이며, 동시에 나머지 히스토그램의 확률분포, 즉 히스토그램의 형상의 동일성이 유지되도록 변환되는 과정이다.
도 6은 히스토그램 매칭의 수학적 기법의 일 예를 설명하는 도면이다.
예를 들어, 이를 수학적으로 표시하면 아래와 같다.
도 6(a)에는 입력 영상과 히스토그램이 나타나 있고, 도 6(b)에는 입력과 출력의 관계가 나타나 있으며, 도 6(c)에는 출력 영상과 히스토그램이 나타나 있다.
여기서, 입력 영상에서 s를 random variable of the form이라고 하면,
Figure PCTKR2014012760-appb-I000001
와 같이 표시할 수 있다.
출력 영상에서 random variable z를
Figure PCTKR2014012760-appb-I000002
와 같이 정의하면, 히스토그램 매칭을 위한 관계식은
Figure PCTKR2014012760-appb-I000003
와 같이 얻어진다.
따라서, T(r)은 입력 영상의 PDF 인텐시티로부터 획득될 수 있고, G(z)가 s로 획득될 수 있다.
도 7은 히스토그램 매칭 후에 복수의 환자들의 DWI 뇌영상에서 히스토그램의 평균 및 표준편차의 일 예를 설명하는 도면이다.
도 7에 도시된 것과 같이, 복수의 히스토그램을 어느 하나(예: 1번 히스토그램)을 기준으로 매칭한 결과, 비경색 영역의 평균과 뇌실의 평균이 복수의 히스토그램들 간에 평활화가 된 것을 확인할 수 있다. 평활화의 효과는 경색 영역보다 비 경색 영역 및 뇌실에 대해 더 큰 것을 알 수 있다. 도 7에서 대략 Th2=17000 정도로 쓰레쉬홀딩하면 복수의 매칭된 히스토그램에서 경색 영역의 대부분이 분할될 수 있으며, 비 경색 영역이 경색 영역으로 분할되는 정도를 현저히 감소시킬 수 있는 것을 알 수 있다.
따라서, 도 7과 같은 평활화된 히스토그램 또는 복수의 매칭된 히스토그램을 기초로 경색 영역과 비 경색 영역의 경계값 즉 쓰레쉬홀드 값을 일률적으로 하나의 값으로 정하여 분할하면, 자동화된 분할이 가능하고, 의사마다 경색 영역이 달라지는 문제점을 해결할 수 있다. 또한, 이러한 복수의 매칭된 히스토그램에서 쓰레쉬홀드 값을 정하여 분할하는 방법의 신뢰도도 매우 높기 때문에 실제 사용에도 문제가 없다.
이러한 쓰레쉬홀드 값을 적용하여 어떤 환자의 히스토그램에서 경색 영역을 분할하기 위해서는 분할 대상이 되는 히스토그램에 대해, 도 7에서 설명된 것과 같이, 히스토그램 매칭 과정이 수행된다. 이렇게 히스토그램 매칭이 수행되는 기준이되는 템플릿 히스토그램을 만들면 더욱 신뢰성이 있는 매칭이 가능하고, 따라서 쓰레쉬홀드 값의 신뢰성 또한 향상될 수 있다.
히스토그램 매칭된 복수의 히스토그램을 기초로 템플릿 히스토그램이 만들어질 수 있다. 템플릿 히스토그램은 기초가 되는 복수의 매칭된 히스토그램의 개수를 추가함에 따라 변동될 수 있다. 예를 들어, 분할 대상 히스토그램을 템플릿 히스토그램에 매칭하는 과정은 수평축의 인텐시티 범위가 템플릿 히스토그램과 분할 대상 히스토그램에서 동일하도록 변환(transformation)하는 과정이며, 동시에 분할 대상 히스토그램의 확률분포, 즉 히스토그램의 형상의 동일성이 유지되도록 변환되는 과정이다. 예를 들어, 템플릿 히스토그램은 전술된 것과 같이 매칭된 복수의 히스토그램들의 평균을 구하여 만들어질 수 있다. 이와 같이 템플릿 히스토그램을 매칭의 기준으로 만들면, 복수의 히스토그램 중 임의의 히스토그램을 매칭의 기준으로 하는 경우에 비하여 선택편항(selection bias)를 현저히 감소할 수 있다. 이러한 템플릿 히스토그램은 경색 영역의 분할이 수행될 히스토그램에 대해 히스토그램 매칭의 기준이 된다.
이와 같이 생성된 템플릿 히스토그램을 기준으로 복수의 히스토그램을 다시 쓰레쉬홀딩하고 ADC 영상을 사용하여 False Positives를 제거하는 과정이 추가될 있다(도 10, 도 11 참조). 이에 대해 더 후술된다. 또한 경색 영역의 사이즈(infarct size) 등을 통한 필터링 과정이 추가될 있다(도 12 참조). 이에 대해서도 더 후술된다. 그 결과, 경색 영역을 소프트웨어에 의해 자동으로 탐지하고 추출할 수 있다.
도 8은 템플릿 히스토그램에 분할 대상 히스토그램을 매칭하는 방법 및 경색 영역을 보정하는 방법의 일 예를 설명하는 도면이다.
도 8(a)는 도 7에서 설명된 템플릿 히스토그램의 일 예를 보여주며, 도 8(b)는 분할 대상 히스토그램의 일 예를 보여준다. 도 8(c)는 도 8(b)의 히스토그램을 도 8(a)의 템플릿 히스토그램에 매칭한 결과 매칭된 히스토그램을 보여준다. 도 8(d)는 DWI 뇌영상에서 찾아진(detected) 경색 영역(20)을 보여준다. 매칭된 히스토그램을 쓰레쉬홀딩하면 경색 영역에 해당되는 픽셀들을 역으로 찾아갈 수 있고, 이렇게 찾아진 픽셀들은 DWI 영상에서, 도 8(d)에 도시된 것과 같이, 경색 영역(20)으로 분할될 수 있다. 경색 영역(20)은 주변과 다른 색으로 표시될 수 있지만 도 8(d)에는 주변보다 더 진한 회색으로 표시되어 있다.
경색 영역을 이루는 픽셀들의 인텐시티는 편차를 가지며, 따라서 전술된 것과 같이 선정된 쓰레쉬홀드 값으로 쓰레쉬홀딩하여도 비경색 영역의 픽셀이 경색 영역으로 분할될 수도 있다. 이러한 오류를 보정하는 과정이 추가될 수 있다. 이러한 보정은 쓰레쉬홀드 값을 선정하는 과정에서 쓰레쉬홀드 값 자체를 보정하는 방법과, 쓰레쉬홀딩된 경색 영역에서 비경색 영역의 픽셀을 제거하는 방법이 사용될 수 있다.
도 9는 뇌실(ventricle)의 분할의 일 예를 설명하는 도면이다.
쓰레쉬홀드 값을 선정하는 과정에서 쓰레쉬홀드 값 자체를 보정하기 위해, 도 9에 도시된 것과 같이, 뇌실을 분할하고, 뇌실을 구성하는 픽셀의 평균 인텐시티와 표준편차가 도 4에서 설명된 것과 같이 구해질 수 있다. 도 4에서 뇌실의 평균은 복수의 히스토그램에서 서로 다르게 나타나며, 특히 비경색 영역의 평균이 거의 뇌실의 평균의 변화에 유사하게 변화되는 것을 알 수 있다.
따라서, 특정 환자의 히스토그램에 대해 쓰레쉬홀드 값을 적용하여 경색 영역을 분할할 때, 뇌실 평균이 다른 히스토그램에 비해, 또는 템플릿 히스토그램에 비해 높거나 낮으면, 쓰레쉬홀드 값에 일정 값을 더하거나 빼서 새로운 쓰레쉬홀드 값으로 변경하는 것이 가능하다. 이렇게 변경된 쓰레쉬홀드 값을 사용하여 비경색 영역의 픽셀이 경색 영역으로 분할되는 오류를 감소시킬 수 있다.
도 10은 ADC 영상에서 ROI Vs NonROI에 대해 히스토그램의 일 예를 설명하는 도면이고, 도 11은 복수의 환자들의 ADC 영상에서 ROI Vs NonROI에 대해 히스토그램의 평균 및 표준편차의 일 예를 설명하는 도면이다.
도 10은 ADC 영상의 히스토그램으로서, 도 10(a)는 비경색 영역의 히스토그램의 일 예이고, 도 10(b)는 경색 영역의 히스토그램의 일 예이다. 도 11에는 ADC 영상에 대해서도 복수의 환자에 대해 히스토그램을 만들어서 도 11과 같이 도시될 수 있다. 도 11에서 상측에 사각 표시된 그래프는 뇌실 영역이고, 가장 하단의 세모표시된 그래프는 경색 영역이고, 가운데에 원형 도트로 표시된 그래프는 비경색 영역의 ADC의 히스토그램을 나타낸다.
ADC는 DWI을 기초로 계산에 의해 생성된 영상이다. ADC(apparent diffusion coefficient)는 확산 계수로서 온도의 함수이다. 신체 내에서는 세포벽이 존재하고 온도가 불균일하기 때문에 DWI 이용하여 ADC를 계산할 수 있다. DWI와 ADC는 역상이다. 경색 영역은 세포의 팽창으로 인해 세포 바깥의 물의 확산이 감소한다. 확산이 감소된 영역은 B1000에서 DWI를 찍으면 신호 저하(decrease)가 작은 영역이 되며, DWI 영상에는 밝게 나온다. 반면, 확산이 감소된 영역은 ADC에서는 정상보다 어둡게 나온다. 뇌척수액(cerebrospinal fluid; CSF)과 같은 물은 자유 확산(free diffusion) 영역으로서 ADC가 밝게 나오고 DWI가 어둡게 나온다.
이와 같은 ADC 영상에서도 도 11과 같은 그래프를 참조하여 ADC 쓰레쉬홀드 값을 정하여 경색 영역을 분할할 수 있다. 따라서, ADC 영상에서 경색 영역으로 구분된 픽셀과 도 7 및 도 8에서 설명된 템플릿 히스토그램에 매칭한 후 쓰레쉬홀딩되어 경색 영역으로 분할된 픽셀을 동시에 만족하는 픽셀만이 경색 영역으로 분할된다. 따라서 쓰레쉬홀딩에서 오류가 보완될 수 있다.
도 12는 쓰레쉬홀드 값, 경색 영역의 사이즈 및 ADC 쓰레쉬홀드 값을 파라미터로 하여 FROC 분석 그래프의 일 예를 설명하는 도면이다.
도 12에는 템플릿 히스토그램의 쓰레쉬홀드 값을 200으로 고정하고, 경색 영역의 사이즈 및 ADC 영상에서 쓰레쉬홀딩 값을 파라미터로 변경하며 파라미터의 다양한 조합에 대해 FROC(Free Response Operating Characteristic) 분석한 그래프가 도시되어 있다. 수평축은 FPs(false points; 경색 영역으로 잘못 분할된 비경색 영역 픽셀 개수)이고, 수직축은 센스티비티(sensitivity; 경색 영역의 픽셀을 경색 영역으로 분할하는 확률)를 나타낸다. 도 12에서 하나의 그래프를 기준으로 ADC 쓰레쉬홀드 값이 증가하면 FPs가 증가한다.
예를 들어, FPs 개수는 2개 이하이고, 센스티비티가 약 85% 이상이며, 사이즈가 50 이상으로 조건을 정하면, 대략 위에서 첫 번째 및 두 번째 그래프가 해당됨을 알 수 있다. 이와 같이, 사용자가 경색 영역의 분할 방법의 조건들을 설정하여 방법의 신뢰성을 예측할 수 있다.
예를 들어, 템플릿 히스토그램 쓰레쉬홀드 값, 경색 영역의 사이즈 및 ADC 쓰레쉬홀드 값을 각각 200, 100, 700으로 하면, 센스티비티가 약 89.47%가 되며, FPs 개수는 1.47 정도가 된다. 이러한 결과는 센스티비티가 매우 높고, FPs 개수가 매우 작아서 매우 우수한 결과로 볼 수 있다.
한편, 전술된 것과 같이, DWI B1000 및 DWI B0에서 획득된 뇌영상들의 히스토그램을 사용하여 생성된 템플릿 히스토그램에 매칭하여 경색 영역을 분할하고, ADC 영상 등을 사용하여 False Positives Reduction하는 적어도 하나의 예들을 설명하였다. 그러나, 이러한 단계적인 방법도 유효하지만, ADC와 DWI B1000 및 DWI B0을 순서에 관계없이 동시에 함께 고려하는 방법도 물론 가능하다.
도 13은 본 개시에 따른 뇌경색 영역의 구분 방법의 일 예를 설명하는 도면이다.
뇌경색 영역의 구분 방법에서, 먼저, 복수의 뇌영상에 포함된 경색 영역 내의 점들 각각의 밝기 정보를 포함하는 정량적 값 집합을 추출한다(S41). 이후, 경색 영역 내의 점들 간의 정량적 값 집합의 차이를 기초로 점들 각각의 경색으로부터의 회복 가능성을 추정한다(S51).
정량적 값 집합을 추출하기 전에, 복수의 뇌 영상들을 획득하고(S11), 복수의 뇌영상 중 적어도 하나에서 경색 영역을 분할하며(S21), 복수의 뇌 영상들을 정합(registration)할 수 있다(S31).
본 예에서는 복수의 뇌영상을 사용한 경색 영역의 구분 방법이 설명되지만, 본 개시에 따른 경색 영역의 구분 방법은 하나의 뇌영상(예: DWI)을 사용하여 경색 영역의 점들 각각의 경색 회복 가능성을 분류하는 것을 포함한다.
정량적 값 집합을 추출하기 위해, 복수의 뇌영상에 포함된 각 경색 영역에서 각각의 점이 가지는 밝기(intensity)를 추출하고, 복수의 뇌영상 중 적어도 하나의 뇌영상의 경색 영역의 기준점으로부터 각 점까지의 거리를 추출할 수 있다. 예를 들어, 점은 복셀(voxel)이거나, 3차원 뇌영상으로부터 추출된 2차원 이미지의 픽셀(pixel)일 수 있다. 본 예에서 점은 복셀로 설명된다. 따라서 본 예에서의 설명은 2차원 픽셀의 경우를 포괄한다.
본 예에서, 복셀의 밝기(intensity)를 추출하기 위해 로우패스필터(Low pass filter)를 사용한 이미지 스무딩(image smoothing)을 할 수 있다. 복셀까지의 거리를 추출하기 위해, 경색 영역의 디스턴스 맵(distance map)을 생성하고, 디스턴스 맵을 사용하여 경색 영역의 중심(3; 도 16참조)으로부터 각 점까지 거리를 추출할 수 있다.
경색으로부터의 회복 가능성을 추정하기 위해, 경색 영역 내의 점들 간의 정량적 값 집합의 차이를 기초로, 점들 각각의 경색 발생 시점을 분류하는 분류자(classifier)를 사용하여, 점들 각각을 경색 발생 시점에 대응할 수 있다. 또는, 경색으로부터 회복된 점들로부터 축적된 정량적 값 집합을 분류함으로써, 경색으로부터 회복하는 점을 학습한 분류자를 사용하여, 점들을 경색 회복 가능한 점과 회복 불가능한 점으로 분류할 수 있다. 분류자는 경색의 발생 시점이 알려진 또는 알려지지 않은 서로 다른 사람의 뇌영상들로부터 축적된 경색 영역들의 점의 정량적 값 집합을 다중회귀분석(multiple regression) 방법, Support Vector Regression 방법 및 커브피팅(curve fitting) 방법으로 이루어진 군 중에서 적어도 하나를 사용하여 분류할 수 있다.
본 개시에 따른 뇌경색 영역의 구분 방법은 혈전용해술의 시행여부 등 치료 또는 진단의 방법을 정해주는 것이 아니며, 단지 경색 영역 내의 복셀들이 발생 시점 또는 경색 회복 가능성에서 서로 다른 특성을 가짐(heterogenity)을 밝히고, 더 정확한 경색 영역의 판정 방법을 개시한다.
본 개시에 따른 뇌경색 영역의 분할 방법에 의하면, 과평가(overestimated)된 경색 영역에서 살아날 가능성이 있는 영역에 대해 복셀 별로 정량적, 객관적으로 판단할 수 있는 근거를 제공한다.
이하, 뇌경색 영역의 구분 방법의 각 과정을 상세히 설명한다.
도 14는 MRI에 의해 생성된 뇌영상들의 예들을 설명하는 도면이다.
먼저, 복수의 뇌 영상들이 획득된다(도 13의 S11).
예를 들어, MRI에 의해 뇌(brain) 영상들이 생성된다. 뇌 영상들은 DWI 영상, ADC 영상, PWI 영상, FLAIR 영상, T1 영상, T2 영상 등을 포함할 수 있다. 본 예에서 뇌 영상은 MRI에 한정되지 않고, CT 영상이나 다른 의료영상도 포함할 수 있다.
상기 뇌 영상들은 각 영상의 필요에 따라 조합된 펄스시퀀스를 사용하여 생성된다. 따라서 상기 뇌 영상들은 서로 다른 모달리티(modality)를 가질 수 있다. 다만, ADC는 DWI을 기초로 계산에 의해 생성된 영상이다.
MRI로 영상을 얻기 위해서는 많은 수의 RF 펄스를 인가해야 한다. TR(repetition time)은 같은 크기의 RF 펄스를 인가하는 시간 간격으로서, 반복시간이다. TE(time to echo)는 지연시간 또는 에코시간이다. RF 펄스 직후에는 신호를 측정할 수 없기에 짧은 시간을 기다리게 되고, 일정 시간이 경과한 후 신호를 측정하게 된다. 이 짧은 시간을 TE라고 한다.
TR 및 TE는 검사자에 의해 조절될 수 있다. TR 및 TE를 적절하게 조절함으로써 임상에 응용할 수 있는 T1 영상 또는 T2 영상을 얻을 수 있다.
이하, 정량적 값 집합이 추출될 수 있는 뇌 영상들을 간략히 살펴본다.
DWI(diffusion weighted imaging)는 생체 조직에서 분자, 특히 물 분자의 확산 운동을 매핑(mapping)하는 영상이다. 조직 내에서 물 분자의 확산은 자유롭지 못하다. DWI는 물 분자가 섬유 조직 또는 세포막(membranes)에 충돌하는 것을 반영한다. 따라서 물 분자의 확산 패턴은 조직의 정상 또는 비정상 상태를 나타내어 준다. 특히 DWI는 뇌의 백질(white matter)의 섬유 구조 또는 회백질(gray matter)의 정상 및 비정상 상태를 잘 나타낼 수 있다.
ADC(apparent diffusion coefficient)는 확산 계수로서 온도의 함수이다. 신체 내에서는 세포벽이 존재하고 온도가 불균일하기 때문에 DWI 이용하여 ADC를 계산할 수 있다. DWI와 ADC는 역상이다. 경색 영역은 세포의 팽창으로 인해 세포 바깥의 물의 확산이 감소된다. 확산이 감소된 영역은 B1000에서 DWI를 찍으면 신호 저하(decrease)가 작은 영역이 되며, DWI 영상에는 밝게 나온다. 반면, 확산이 감소된 영역은 ADC에서는 정상보다 어둡게 나온다. 뇌척수액(cerebrospinal fluid; CSF)과 같은 물은 자유 확산(free diffusion) 영역으로서 ADC가 밝게 나오고 DWI가 어둡게 나온다.
PWI(perfusion weighted imaging)은 혈류를 보여주는 관류 영상이다. 예를 들어, 가돌리늄(Gadolinium)을 조영제로 주입하고, MRI 영상을 찍으면, 혈류량, 혈류속도, MTT(mean transit time) 및 TTP(time to peak) 등의 파라미터들을 획득할 수 있다.
FLAIR 영상은 유체로부터 나오는 신호를 무효화(nulls)한 영상이다. 예를 들어, FLAIR 영상은 MRI로 뇌 영상을 획득할 때, 영상에서 뇌척수액으로 인한 효과를 억제하기 위해 사용된다. FLAIR 영상은 뇌의 해부학적 구조(anatomy)를 잘 보여준다. 조직에 따라 반전 시간(inversion time)을 잘 선택함으로써 특정한 조직으로부터 신호를 억제할 수 있다.
T1 및 T2 영상은 TR 및 TE를 조절하여 특정 조직의 T1 또는 T2 효과가 강조된 영상이다. MRI의 과정에서, 인가하였던 RF(radio frequency) 펄스를 차단하면 조직의 양성자는 흡수하였던 에너지를 주변 조직에 방출하면서 외부 자기장(B0) 방향(Z축 방향)으로 재정렬하게 된다. T1은 종축인 Z축을 따라 양성자의 스핀들이 재정렬하는 시간, 즉 Z축 방향 자화가 회복되는 곡선의 시간상수이다. T1은 자화 회복의 시간상수로서 종축 이완시간 또는, 스핀-격자 이완시간(spin-lattice relaxation time)이라고 부른다. 한편, RF 펄스가 차단되면, 자화의 XY 성분은 붕괴한다. T2는 자화의 XY 성분 붕괴 곡선의 시간 상수로서 횡 이완시간 또는, 스핀-스핀 이완시간(spin-spin relaxation time)으로 부른다. T1 및 T2는 조직의 고유값이며, 물, 고체, 지방, 단백질마다 다른 값을 가진다. 여기서, TR을 길게 하면 T1효과를 감소시킨다. 반대로, TR을 짧게 하면 T1 효과(대조도)를 증대, 즉 T1 강조 영상이 획득된다. TE를 짧게 하면 T2 효과를 감소시키고, 길게 하면 T2 효과를 증대, 즉 T2 강조 영상이 획득된다.
MRA 영상은 조영제를 사용하여 MRI로 혈류를 찍은 영상이다.
도 15는 DWI 뇌영상에서 분할된 뇌영상의 일 예를 설명하는 도면이다.
예를 들어, 뇌 영상들을 획득한 후, 획득된 뇌 영상들 중 적어도 하나의 뇌 영상에서 경색 영역(10)이 분할(segmentation)될 수 있다(도 13의 S21). 또한, 뇌 영상들 중 적어도 하나의 뇌 영상에서 경색 영역의 주변 영역(20; penumbra; 도 16 참조)이 분할될 수 있다. 주변 영역은 경색 영역 주변에 위치하거나 경색 영역을 둘러싸는 영역으로서, 경색으로 인해 영향을 받아서 혈류 공급에 문제가 생긴 영역이다. 예를 들어, 전술된 뇌 영상들에서 이미지프로세싱 과정(예: 어뎁티브 쓰레쉬홀딩)을 통해 경색 영역 또는 주변 영역(ischemic penumbra)이 분할될 수 있다.
예를 들어, 뇌 경색 초기 단계에서는 경색은 DWI 영상에서 잘 보인다. 따라서 DWI 또는 ADC 영상을 사용하여 경색 영역이 분할될 수 있다. 또한 주변 영역은 PWI 영상으로 잘 파악되므로 PWI 영상을 사용하여 주변 영역이 분할될 수 있다(15). 예를 들어, 도 15(a)는 B1000에서 쓰레쉬홀드 값 Th=90로 추출된 뇌 마스크이고, 대략 중앙에 Th=290로 추출된 경색 영역(10)이 나타나 있다. 도 15(b)는 DWI B0에서 반전(inversion) 영상을 보여준다. B0, B1000 중 B1000을 가지고 쓰레쉬홀딩하면 뇌가 더 잘 찾아질 수 있다.
다음으로, 경색 영역 또는 주변 영역이 분할된 적어도 하나의 뇌 영상을 포함하는 뇌 영상들이 정합(registration)된다(S31). 다만, 본 개시에 따른 뇌경색 영역의 분할 방법은 DWI와 같은 하나의 뇌영상을 사용하여 이루어질 수도 있고, 이 경우 정합의 과정은 포함하지 않을 수 있다.
예를 들어, 해부학적인 영상인 FLAIR나 T1, T2영상, 경색 영역이 분할된 DWI 영상 또는 ADC 영상, PWI 영상 및 나머지 뇌 영상들이 정합된다. 또한, CT에 의한 뇌 영상이 함께 정합될 수도 있다. 본 예에서는 다수의 뇌 영상들이 정합되는 것이 설명되지만, 반드시 전술된 뇌 영상들이 모두 정합될 필요는 없다. 뇌 영상을 보는 목적에 따라 2개 이상의, 바람직하게는 모달리티가 서로 다른 2개 이상의 뇌 영상이 정합된다.
본 예에서는 경색 영역이 분할된 DWI 영상을 기준으로 나머지 뇌 영상들이 정합된다. 정합을 위해 강체 정합(rigid registration) 방법이 사용될 수 있다. 뇌는 심장이나 폐와 다르게 움직임이 거의 없지만 경우에 따라서는 비강체 정합(non-rigid registration) 방법이 사용될 수도 있다. 정합의 기반으로 뇌 영상의 템플릿(template) 정보를 가지는 아틀라스(Atlas)가 사용될 수 있다. 아틀라스는 다수 개체의 뇌 영상들로부터 뇌 영상의 전형을 형성한 것이다.
도 16은 경색 영역의 복셀들 각각의 정량적 값 집합이 추출되는 방법의 일 예을 설명하는 도면이다.
계속해서, 정합된 뇌 영상들의 경색 영역의 각각의 복셀에 대해 정량적 값 집합이 추출된다(S41).
예를 들어, 정량적 값 집합은 경색 영역(10)의 복셀에 매칭되어 있는 3차원 공간상의 x,y,z 위치 정보, 복수의 뇌영상 각각에서 밝기(intensity) 정보, 경색 영역(10)의 기준점(예: 중심; center of inertia)으로부터 각 복셀까지의 거리 정보를 포함할 수 있다. 정량적 값 집합은 예시된 정량적 값(위치, 밝기, 거리) 중 일부를 포함할 수도 있다. 밝기 정보는 경색 영역(10)의 발생 시점에 따라 변할 수 있으므로 밝기 정보가 획득된 시간 정보도 포함될 수 있다.
본 예에서 정량적 값은 복셀 단위로 매칭된 값이며, 복셀 단위의 정량적 값을 사용하여 경색 영역(10)의 평균적인 정량적 값을 구하는 등의 과정을 반드시 배제하는 것은 아니다. 다만, 본 개시는 복셀별로 경색으로부터 회복 가능한 여부를 판정한다. 즉 본 개시에 따른 뇌경색 영역의 구분 방법은 경색 영역을 동질의 것으로 다루는 것이 아니라 이질성(heterogenety)을 가지는 것에 착안한 방법이다. 따라서 평균적으로 경색 영역을 판단하는 방법에 비해 더욱 세밀하고 정밀한 판정이 가능하다.
예를 들어, 경색 영역의 각 복셀의 정략적 값 집합은 뇌 영상에서 복셀의 위치(x,y,z), 복셀의 밝기 DIDWI,DIADC,DIFLAIR,DIT1 DIT2 중 적어도 하나와, 경색 영역의 중심(3)으로부터 거리 DDWI,DADC,DFLAIR,DT1 DT2 중 적어도 하나를 포함할 수 있다. 예를 들어, 위치 정보는 도 16에 도시된 것과 같이, DWI에서 공간을 규정하는 좌표계 상의 위치(x,y,z)를 포함할 수 있다. 복셀의 밝기 정보는 뇌영상들이 정합되어 있으므로, 예를 들어 DWI에서 분할된 경색 영역의 복셀에 대해 DWI의 밝기(DIDWI)뿐만 아니라 다른 영상들에서 대응하는 복셀의 밝기 정보(DIADC,DIFLAIR,DIT1 , DIT2 등)가 매칭될 수 있다. 각 뇌 영상에서 경색 영역의 복셀의 밝기(DIDWI,DIADC,DIFLAIR,DIT1,DIT2)는 경색 영역의 발생 시점과 관련이 있다고 보기 때문에 밝기 정보를 포함하여 추출하는 것이 바람직하다.
도 17은 뇌 영상이 가우시안 로우패스필터에 의해 필터링되는 과정의 일 예를 설명하는 도면이다.
경색 영역이 복셀 단위로 밝기를 추출하면, 경색 영역의 전체의 평균 밝기를 추출하는 경우에 비하여 노이즈에 의한 영향이 크게 된다. 따라서 복셀 단위로 밝기를 추출하되, 노이즈에 의한 오류를 감소하기 위해 뇌 영상 또는 경색 영역에 대해 가우시안 로우패스필터(Gaussian Low pass filter)와 같은 이미지 스무딩(image smoothing) 기법을 사용하여 복셀의 SNR(신호대 잡음비)를 높인다. 즉, 복셀의 주변의 정보를 이용하여 SNR을 올린다.
가우시안 로우패스 필터를 사용한 이미지 스무딩을 위해 Gaussian kernel의 사이즈를 최적으로 선정할 필요가 있다. 예를 들어, 도 17(a)에 도시된 경색 영역 스펙트럼에 커널(kernel)를 적절히 선택하여 가우시안 로우패스필터를 적용하면, 도 17(b)에 도시된 것과 같이, 경색 영역이 블러링(bluring)된다. 즉 경색 영역이 영상 처리되어 어떤 복셀의 밝기가 주변 정보와 관련되게 함으로써 노이즈에 의한 오류를 감소할 수 있다.
정량적 값의 다른 하나로서 경색 영역의 중심(예: center of inertia)으로부터 복셀까지의 거리가 추출된다. 중심으로부터 거리가 큰 복셀, 즉 경색 영역의 경계에 가까운 복셀은 중심에 더 가까운 복셀에 비하여 발생 시점이 더 짧을 확률이 크고, 혈전용해술 시행 후 경색으로부터 회복되는 복셀이 될 가능성이 더 클 수 있다. 따라서, 정량적 값 집합은 거리 정보도 포함하는 것이 바람직하다. 복셀의 거리 정보를 추출하기 위해 경색 영역의 디스턴스 맵(distance map)이 사용될 수 있다.
예를 들어, 디스턴스 맵은 경색 영역의 3차원 이미지를 기초로 3차원 디스턴스 맵이 생성될 수 있다. 3차원 경색 영역 이미지로부터 원하는 방향의 2차원 이미지를 언제든 얻을 수 있으므로 3차원 디스턴스 맵은 2차원 디스턴스 맵을 포괄할 수 있다.
예를 들어, 디스턴스 맵의 생성과정은 경색 영역의 모든 복셀들에 대해 경색 영역의 경계로부터 각 복셀까지의 거리 정보가 추출되는 과정을 포함할 수 있다. 디스턴스 맵의 생성 방법으로는 유클리드 디스턴스 맵(Euclidean Distance map) 등 다양한 방법이 사용될 수 있음을 당업자는 알 것이다. 이와 같은 디스턴스 맵이 제공하는 거리 정보로부터 경색 영역의 중심으로부터 각 복셀까지 거리가 구해질 수 있다.
도 18은 경색의 발생 시점에 따라 DWI 영상에서 경색 영역의 밝기 변화의 일 예를 설명하는 도면이다.
도 18에서 ADC의 밝기는 DWI의 밝기의 역상으로 나타나 있다. 도 18에 도시된 것과 같이, 경색 영역의 밝기 평균값은 시간에 따라 변할 수 있다. 평균값은 각 복셀의 밝기와 관련되므로 각 복셀의 밝기도 시간에 따라 변할 수 있다. 시간에 따라 DWI 영상에서 경색 영역의 복셀의 밝기 변화의 정도는 복셀의 위치, 환자의 나이, 성별, 등의 요소에 의존하므로 개체마다 편차가 클 수 있다. 또한, 시간에 따라 변하는 DWI 영상에서 복셀의 밝기 변화는 스펙트럼 분포를 보이므로 특정한 DWI 밝기 값으로부터 일률적으로 경색 영역을 평가하는 것은 경색 영역을 과평가 하게 되는 원인이될 수 있다.
도 14 및 도 15에서 전술된 것과 같이 쓰레쉬홀딩에 의해 분할된 경색 영역이 시간에 따라 평균 밝기가 변화되며, 주변 영역으로 경색 영역의 부피가 증가할 수 있다. 복셀들 각각이 경색의 발생 시점이 다르고, 경색 영역 내의 복셀이라도 경색이 회복되는 경우와 회복되지 못하는 복셀로 구분될 수 있다. 본 개시는 이러한 일률적인 쓰레쉬홀딩에 의해 경색 영역으로 분할된 경색 영역이 동질적이지 않고, 경색 발생 시점 및 회복 가능성에서 차이가 있음(heterogenity)에 착안하여 복셀 단위로 경색 회복 가능성을 추정하는 방법을 개시한다.
도 19는 정량적 값 집합을 경색 발생 시점에 대응하는 관계를 다중 공간상의 점으로 이해하는 방법의 일 예를 설명하는 도면이고, 도 20은 분류자의 생성 방법의 일 예를 설명하는 도면이다.
본 예에서는 정량적 값 집합을 멀티파라미터를 사용하여 추출한다. 즉 정량적 값 집합은 복수의 뇌영상으로부터 복셀의 밝기 정보(DIDWI , DIFLAIR , DIT1 , DIpWI ), 위치 정보(x, y, z) 및 중심으로부터 거리 정보(D)를 포함할 수 있다. 도 19에서 공간상의 한 점 P1 = (P11, P12, P13, P14, P15, P16; 예 DIDWI , D, DIFLAIR , DIT1 , (x, y,z), DIpWI , onset1)은 정량적 값 집합(DIDWI , D, DIFLAIR , DIT1 , (x, y,z), DIpWI)을 경색의 발생 시점(onset1)에 대응시키는 관계를 공간상의 점으로 표시한 것으로 볼 수 있다. 이러한 대응 관계에 의해 각 복셀이 서로 다른 경색 발생 시점에 대응될 수 있다.
이와 같은 대응관계는 도 20에 도시된 것과 같이 정량적 값 집합을 분류자를 통해 발생 시점에 대응시키는 것이다. 이러한 분류자는 예를 들어, 정량적 값 집합을 복셀의 경색 발생 시점에 대응시키도록 훈련(trained) 또는 학습될 수 있다. 이러한 분류자에 의한 복셀의 분류는 정량적 값 집합의 차이에 기초한다.
분류자는 예를 들어, 다중회귀분석(multiple regression)과 같은 통계적 방법이나, Support Vector Regression 방법을 사용하여 대응 관계를 만들 수 있다. 다른 예로, 분류자는 정량적 값 집합과 복셀의 경색 발생 시점의 관계를 커브피팅(curve fitting)하여 대응관계를 마련할 수도 있다.
축적된 경색 발생 시점-정량적 값 집합 데이터를 사용하여, 복셀의 정량적 값 집합을 경색의 발생 시점으로부터 복셀이 경색 영역으로 분할된 시점까지 대응시키는 훈련과 학습을 통해 대응 관계의 정확성과 신뢰성이 향상될 수 있다. 여기서 훈련과 학습이란 경색의 발생 시점-정량적 값 집합 데이터가 계속 축적되면서 대응 관계가 수정 및 보완 또는 보정되는 것을 의미한다.
예를 들어, 분류자는 경색으로부터 회복된 복셀들로부터 축적된 정량적 값 집합을 분류함으로써 경색으로부터 회복하는 점을 학습하고, 복들을 경색 회복 가능한 그룹과 회복 불가능한 그룹으로 분류할 수 있다.
여기서 경색으로부터 회복된 복셀들은 경색 영역의 발생 시간이 알려지지 않은 뇌 영상들로부터 추출된 복셀일 수도 있고, 이러한 복셀들의 정량적 값 집합을 발생 시간에 대응시키는 과정을 반복 시행한 결과, 대응 관계가 실제 발생 시점을 얼마나 정확히 추정해 주는지 평가할 수 있다.
또한, 경색 영역의 발생 시간이 알려진 복셀들의 정량적 값 집합을 대응 관계에 의해 발생 시간에 대응시켜 봄으로써 대응 관계의 유효성을 평가할 수 있다.
도 21은 회귀분석에 의해 생성된 대응 관계의 일 예를 설명하는 도면이다.
예를 들어, 경색 영역의 발생 시점이 알려진(클리어 온셋) 환자들로부터 멀티 모달리티 뇌 영상들이 획득될 수 있다. 이러한 멀티 모달리티 뇌 영상들로부터 경색 영역의 복셀의 정량적 값 집합들이 축적될 수 있다. 또한, 동물 실험을 통해 동일한 개체에 대해 경색 영역의 복셀의 경색 발생 시점으로부터 시간에 따라 변화하는 정량적 값 집합을 축적할 수 있다.
이렇게 축적된 발생 시점-정량적 값 집합 데이터로부터 도 21에 도시된 것과 같은 분류자를 사용한 예로서, 다중회귀분석에 의해 중회귀식이 만들어질 수 있다(도 22에서 400으로 시각화됨).
예를 들어, 중회귀식은,
Onset time = f(DIDWI , D, DIFLAIR , DIT1 , (x, y,z), DIpWI,...)와 같이 정의될 수 있다.
한편, 중회귀식에서 경색 영역의 각 복셀의 발생 시점을 추정하는 방법과 달리 경색으로부터의 회복 가능성 자체를 도출할 수 있다. 즉 분류자는 복셀의 발생 시점을 분류하도록 학습될 수도 있지만, 직접적으로 복셀의 정량적 값 집합을 경색 회복되는 복셀과 회복되지 않는 복셀로 분류할 수도 있다.
도 22는 경색 회복 가능한 복셀들을 제외한 축소된 경색 영역을 설명하는 도면이다.
도 19 내지 도 22에서 설명된 것과 같이, 분류자는 각 복셀의 경색 발생 시점을 분류하거나, 경색 회복 가능한 복셀과 회복 불가능한 복셀로 분류할 수 있다. 그 결과, 도 22에 도시된 것과 같이, 추정된 경색 영역(30)은 초기에 분할된 경색 영역(10)보다 축소될 수 있다. 이와 같이, 과평가된 경색 영역(20)이 복셀 단위로 경색 회복 여부를 추정함으로써 더 정확히 평가될 수 있고, 결국 PWI-DWI 미스매치에 대해 더 객관적이고 정량적이 정보를 제공할 수 있다.
도 13 내지 도 22에서 뇌영역 영역의 구분 방법은 각 과정에 맞게 만들어진 애플리케이션에 의해 자동으로 수행되거나, 사용자 인터페이스와 함께 수행될 수 있다.
도 23 내지 도 36은 본 개시에 따른 뇌졸중을 자동으로 분석하는 방법의 예들을 설명하기 위한 도면으로서, 응급실에 온 환자의 스트로크 온셋(stroke onset) 시간(스트로크 발생 또는 발병 시간)이 4시간 반 이내여야 혈전용해술을 수행하는 기준이 있다. 그러나 스트로크 발생 시간이 대부분 클리어 하지 못하며, 원인도 다양하다. 따라서 현재 발생시부터 4시간 반 이내라는 조건 이외에 에비던스가 아직 없다.
도 23 내지 도 36에서 개시되는 뇌졸중을 자동으로 분석하는 방법의 예들은 직접적인 치료법을 제공하는 것은 아니며, 전문가가 아닌 시술자는 물론 전문가에게도 참조할 수 있는 정보를 제공하는 수단을 제공한다. 예를 들어, 전문의가 아니라도, 또한 스트로크 온셋 시간이 4시간 반이 이내가 아니라도, 또는 이내이더라도 뇌영상을 사용하여 경색 영역(infarct)과 주변 영역(penumbra)의 비율 및 뇌에서의 부위를 보고, 4시간 반 이내라도 경색 영역과 주변 영역의 차이가 없으면 혈전용해술을 수행하지 않고, 4시간 반 이후라도 상기 차이가 크면 혈전용해술을 할 수 있도록 정량적 판단의 기준을 제공해 주는 수단을 제공할 수 있다. 또한, 경색 영역과 주변 영역의 비율과 뇌에서의 부위를 정확하게 보고, 응급실에 4시간 반 전에 도착한 환자라도 혈전용해술을 하지 않을 수도 있고, 4시간 반 이후에 도착한 환자라도 치료하면 예후가 더 좋다던지 생존 확률이나, 재활에 더 좋은지 여부와 연관하여 정략적 분석 방법을 제공할 수 있다. 특히 설명될 예들에서는 경색 영역(infarct)과 주변 영역의 비율뿐만 아니라 경색 영역이 발생한 뇌의 부위도 함께 분석하는 방법을 제공하며, 분석의 과정을 자동화하는 것이 특징이다. 또한, 환자의 데이터가 축적되면서, 혈전용해술을 한 사람과 하지 않은 사람, 각 경우의 예후, 부작용 등을 분석하는 과제에 있어서도 본 예에 따른 뇌졸중의 자동 분석 방법이 정량적인 도구로서 사용될 수 있다.
도 23은 뇌졸중 자동 분석 방법의 특징을 설명하기 위한 개념도로서, 뇌졸중을 자동으로 분석하는 방법에서, 예를 들어, MRI로 뇌영상을 획득하면서, 여러 영상을 같이 생성한다. 예를 들어, 도 23에서 중간의 DWI 부분을 참조하면, DWI에서 ADC 맵을 만들고, ADC를 쓰레쉬홀딩하여 경색 영역을 분할하고, false positive 제거한다. 이러한 경색 영역의 분할에는 쓰레쉬홀딩 외에 히스토그램 매칭 방법이 적용될 수 있다.
도 23에서 아래의 PWI부분을 참조하면, 조영제를 쏘면서 뇌에서 피가 어떻게 움직이는지 PWI를 찍을 수 있다. 이러한 PWI에서 주변 영역(penumbra)을 분할한다.
또한, FLAIR(fluid-attenuated inversion recovery)를 찍을 수 있다. FLAIR 영상은 유체로부터 나오는 신호를 무효화(nulls)한 영상이다. 예를 들어, FLAIR 영상은 MRI로 뇌 영상을 획득할 때, 영상에서 뇌척수액으로 인한 효과를 억제하기 위해 사용된다. FLAIR 영상은 뇌의 해부학적 구조(anatomy)를 잘 보여준다. 조직에 따라 반전 시간(inversion time)을 잘 선택함으로써 특정한 조직으로부터 신호를 억제할 수 있다.
본 예는 이러한 여러 영상(DWI,PWI,FLAIR 등)을 통합해서 정보를 제공한다. 또한, 아틀라스 정보를 가지는 뇌의 템플릿 영상도 함께 통합된다. 경색 영역과 주변 영역의 크기도 중요하지만, 뇌의 어디서 경색 영역이 발생했는가가 더 중요하다. 이에 대한 정보를 생성하기 위해 템플릿 영상을 사용한다. 템플릿 영상은 아틀라스 정보에 따라 표준적인 뇌를 영역구분(분할)하여 놓은 것으로서, 예를 들어, 뇌영상에서 하이퍼 켐퍼스, 아미그달라, 살라무스, 화이트 메터, 및 그레이 메터 등의 영역 등이 표준적으로 정해져 있다. 사람마다 차이는 있지만 크게 다르지 않기 때문에 이러한 아틀라스 맵(템플릿 영상)을 사용한다.
이러한 뇌의 템플릿 영상 위에 경색 영역이 분할된 경색 영역 마스크를 오버레이하면, 경색 영역이 뇌의 어떤 부위에서 얼마나 발생한 것인지 정보를 준다. 예를 들어, 뇌영상 템플릿과 환자의 뇌영상을 정합하면, 환자의 뇌영상에서 분할된 경색 영역 영역이 뇌의 어느 부위에 해당하고 얼마의 사이즈를 가지는지 확인할 수 있다. 마찬가지로, 주변 영역이 분할된 PWI도 템플릿 영상과 정합하여 주변 영역이 뇌의 어느 부위에 해당하고 얼마의 사이즈를 가지는지 확인할 수 있다. 또한, 이렇게 중첩함으로써, DWI-PWI 미스매치(mis-match)에 관한 정보를 획득할 수 있다. 특히, FLAIR도 함께 중첩되면, 뇌의 구조적 정보를 더 추가하여 알 수 있고, FLAIR로부터 경색 영역이나 주변 영역에서 경색 영역이 발생하기 전에 이미 존재하던 손상이나 문제를 알아낼 수도 있다.
이러한 통합된 정보에서 경색 영역-주변 영역-플레어 미스매치를 보되, 아틀라스 템플릿과 함께 볼 수 있다. 본 예는 이러한 과정을 자동화하며 신경과 전문의가 아니라도 정량적 정보를 보고 판단할 수 있는 수단을 제공한다. 즉, 얼마 이상의 숫자이면 혈전용해술을 시행할 것인지 등의 판단을 할 수 있다. 전문가의 경우도 매번 판단하는 것은 쉽지 않은데, 본 예는 상기 과정들을 자동화함으로써, 이러한 전문가에게도 도움을 준다. 즉, 본 예는 뇌졸중을 분석하는 경색 영역, 주변 영역, 및 플레어 등과 위치를 분석하는 아틀라스 템플릿이 복합되어 분석 정보를 제공한다.
도 24는 본 개시에 따른 뇌졸중의 자동 분석 방법의 일 예를 설명하기 위한 도면으로서, DWI로부터 경색 영역을 분할하는 방법의 일 예로, DICOMs 데이터를 가지고 와서, 경색 영역을 분할하기 위해 히스토그램 매칭을 수행한다. 이후, 분할된 경색 영역의 볼륨을 측정한다. 이후, FROC 최적화 과정을 수행한다.
PWI로부터 주변 영역을 분할하는 일 예로, DICOMs 데이터를 가지고 와서, phases를 채크하고, realignment한다. 이후, spatial and temporal smoothing, 및 parallelized gamma fitting을 수행하고, TTP를 계산하여 MCA를 찾고, AIF를 결정한다. 이후, Deconvolution을 수행하여, MTT,CBF,CVB, 및 Tmax를 계산함으로써, PWI penumbra segmentation을 한다.
DWI-PWI 미스매치를 분석하고 FLAIR와 merge하는 과정을 포함하며, DWI, PWI, 및 FLAIR는 아틀라스 템플릿에 정합되어 통합되어 콘트롤 될 수 있으며, 시각적으로 정보를 디스플레이할 수 있다.
도 25는 아틀라스 템플릿의 일 예를 설명하기 위한 도면으로서, 템플릿이란 사람마다 뇌가 다 다른데 공통적인 것을 만들어낸, 이미 개발해서 사용되고 있는 표준영상이다. 본 예에서는 DWI, PWI, FLAIR, 및 스탠다드 템플릿, 이렇게 4개를 활용하여 뇌졸중을 자동으로 분석하는 방법을 제공한다.
뇌를 다 분할해서 시각피질이 어디고 등을 분할한 스탠다드 템플릿을 참조해서 환자의 뇌를 분할한다(템플릿 세그멘테이션). 사용하는 영상종류(모달리티)로서, DWI,PWI,FLAIR가 있고, 여기에 더해서, T1영상이 사용될 수 있다. 스탠다드 템플릿에 이들이 정합됨으로써, 각 영상에서 뇌의 부위별로 경색 영역이나 주변 영역 등이 분석될 수 있다. 정합은 템플릿으로부터 DWI,PWI,FLAIR로 또는 그 역으로 옮기는 방법이 사용될 수 있다, 정합의 결과, 템플릿의 분할에 따라 분할하고, 다시 역으로 하면 레이블링이 그대로 존재한 상태로 환자의 뇌가 분할된다. 그러면 경색 영역이 뇌의 어떤 부위(아틀라스)에 있느냐를 볼 수 있다. 예를 들어, AAAL이라는 아틀라스 리스트가 있다. 그 리스트에 해당하는 뇌 영역들이 디스플레이 상에서 커서를 움직이면 레이블링이 되어 있는 것이 표시될 수 있다.
도 26은 DWI로부터 경색 영역을 분할하는 방법의 일 특징을 설명하기 위한 도면으로서, 경색 영역을 분할하기 위해서 예를 들어, 히스토그램 매칭을 위한 템플릿을 생성하고, 다이콤 b0와 b1000을 읽어서 ADC를 만들고, 히스토그램 매칭을 수행한다. 이후, ADC 맵에서 노이즈를 제거하고(False positive reduction based on ADC), FROC 분석을 수행하며, 최종 정확도(final accuracy)와 false positive를 확인한다.
도 27은 DWI로부터 경색 영역을 분할하는 방법의 특징을 설명하기 위한 도면으로서, DWI b0, b1000으로 초급성기 환자 데이터를 획득하고, Gold standard를 제작한다. 도 27의 상측 및 중간 그림은 Gold standard의 예시로서 신경과 의사가 경색 영역을 정한 그림이다. 이를 검증의 기준으로 사용할 수 있다. 도 27의 하측 그림은 Volumetry 분석을 수행한 결과를 보여준다.
DWI로부터 경색 영역을 분할하는 방법으로는 여러 가지 방법이 적용될 수 있다. 예들 들어, 히스토그램 매칭을 해도 되고, 쓰레쉬홀딩하는 것도 가능하며, DWI가지고서 ADC 맵이라는 것을 사용할 수 있다.
도 28 내지 도 30은 PWI로부터 주변 영역을 분할하는 방법의 특징을 설명하기 위한 도면들로서, PWI의 전처리로서, 시간에 따른 뇌의 PWI들을 정렬하고, 시간과 공간에 대해 Smoothing을 한다. 이후, Gamma 곡선 맞춤을 통해 A,a,b 계수들을 얻고, gamma 곡선 맞춤의 NRMSE(normalized root-mean-square error)가 약 2.67%, 11118개의 voxel)를 한다. 곡선 맞춤 과정을 병렬화하여 시간을 단축한다. 이러한 과정을 바탕으로 뇌동맥 유입 혈류(arterial input function; AIF)를 경정한다. AIF는 여러 가지 분석 맵들(MTT,CBF,CBV,Tmax 등)을 구현하는데 필요하다. 자동으로 중대뇌동맥(middle cerebral artery; MCA)를 찾는 알고리듬을 적용한다. MCA로 결정된 영역 안에서 AIF를 결정한다.
도 29의 상단 좌측 그림은 Gamma 곡선 맞춤의 예를 보여주며, PWI에서 임의의 voxel에서 본 시간(x-축)에 따른 조영제의 농도를 반영하는 수치(y-축)을 검은색 열린원으로 표시한다. 실선 곡선이 PWI에 맞춰진 gamma 곡선이다. MCA를 결정하기 위해 도 29의 상단 좌측 그래프들에서 AIF를 결정한다.
PWI로부터 만들어진 도 29와 같은 커브들에서, TTP(time-to-pick), MTT(mean transit time), CBF(cerebral blood flow), CBV(cerebral blood volume) 등의 파라미터가 계산될 수 있다.
한편, 뇌졸중이라는 거는 뇌에 혈액이 공급되지 못하는 현상 때문에 뇌가 죽는 현상인데, 의사들이 알고 싶은 것은 얼마나 블러드 서플라이가 잘되고 있는지, 어느 영역에 어떻게 안 되는지에 대한 것이다. 이것을 계산하는 방법으로서, 조영제를 넣어서 한번 몸을 순환시키고, PWI 영상을 통해서 얼마나 느리게 혈액이 뇌의 특정 영역에 전달되는지에 대한 그 영역이 계산된다. PWI를 계산하는 방법 중에 전술한 TTP(time-to-pick)를 계산하는 방식이 있고, 디콘볼루션을 한 다음에 계산되는 경우가 있다. 예들 들어, MTT, CBF, CBV, TTP와 같은 4가지 중에서 MTT, CBF, CBV 3가지는 디콘볼루션 기법을 사용하여 별도의 파라미터가 다시 생성된다. 이렇게 디콘볼루션된 MTT, CBF, CBV를 사용하여 계산하면, Tmax가 계산되는 데, 이는 TTP에 대응한다. 즉, Tmax 분석 기법은 디콘볼루션된 TTP로 볼 수 있다.
예들 들어, 상기 도 29의 곡선만으로는 혈액 공급이 어느 정도 딜레이 되었는데, AIF를 기준으로 환원시켰을 때, 다시 말하여, AIF는 가장 잘 유입되고 가장 강한 시그널을 가지는 혈류 입력을 기준의 계로 환원시켜 봤을 때 얼마나 딜레이되는 가를 보는 것을 디콘볼루션이라고 한다. 이렇게 디콘볼루션을 하는 이유는 사람마다, 혈액이 전달되는 정도가 다르며, 건강한 사람도 혈액이 전달되는 정도가 다를 수가 있기 때문에 그 프로파일이 다를 수가 있기 때문이다. 따라서 그 사람에 있어서 가장 잘 전달되는 혈류를 기준으로 분석하는 것이다.
따라서 디콘볼루션은 일종의 나누는 방식으로 볼 수 있으며, 기준이 되는 게 AIF이다. 그 AIF를 찾기 위해서 전술한 MCA를 결정하는 등의 과정이 선행된다. 이와 같이, 디콘볼루션 상태의 TTP, 즉 Tmax를 획득하는 것이 중요하다.
전술한 바와 같이 혈류 공급이 제일 잘되는 곡선 또는 프로파일에 비해서 얼마나 딜레이, 또는 퍼져 있느냐는 것에 따라서 곡선이 별도로 생성된다. 즉, 혈류공급이 잘 안 된 곡선을 가장 잘된 곡선으로 나누어주면 가장 잘된 곡선과 잘 안된 곡선의 사이쯤에서 피크가 있는 별개의 곡선이 나온다. 이러한 별개의 곡선을 가장 잘된 곡선을 기준으로 딜레이가 얼마인가를 볼 수 있다.
도 31 및 도 32는 도 29 내지도 도 30의 분석 결과를 나타내는 도면으로서, 상기 분석 결과 혈액이 도달하는데 딜레이가 있는 영역으로서 주변 영역이 분할될 수 있다. 여기에 경색 영역이 함께 보이고, 도 31에 제시된 바와 같이, 시간에 따른 영역별 PWI가 분석될 수 있다. 도 32에서 오른쪽에서 왼쪽으로 시간이 흐르는 영상이고, 원으로 표시된 영역을 보면 조영제가 유입되고 빠져나가는 것이 인텐시티 차이로 잘 보인다. 반면, 혈류공급이 지연되는 영역은 시간에 따라 이러한 인텐시티 차이가 약하고 느린 것을 알 수 있다.
도 33 및 도 34는 FLAIR를 결합하는 것을 설명하기 위한 도면들로서, DWI,PWI,FLAIR를 템플릿 영상을 기초로 함께 정합한다. FLAIR는 뇌구조를 더 잘 보여준다. 이미 예전에 뇌의 특정 부분이 손상되었던 사람들은 치료할 필요가 없는데, 예들 들어, 이미 5,6년 전에 치료해서 생존한 사람이 다시 손상된 경우 이미 고장 났던 부분은 치료할 필요가 없는 것을 FLAIR를 통해서 트루 또는 폴스로 판단해줄 수 있다.
도 35는 DWI-PWI-FLAIR, 템플릿을 통합한 분석 결과를 자동으로 보여주는 일 예를 설명하기 위한 도면으로서, 도 35에서 경색 영역과 주변 영역이 나타나 있고, 파이차트는 이들 간 비율을 보여준다. DWI-PWI 불일치(미스매치) 분석의 일 예로, PWI 분석 영상으로부터 혈액 공급이 원활하지 않지만 조직이 아직 살아있는 영역(허혈성 반음영, ischemic penumbra)을 분할한다. DWI 분석으로부터 뇌조직이 손상된 영역(허혈성 경색, ischemic infarct)을 분할한다. DWI와 PWI를 비교하여, 얼마나 허혈성 반음영 영역이 넓게 분포하고 있는지를 계산한다.
DWI-PWI 미스매치가 크면 빨리 혈전용해술로 막힌 부분을 뚫어 주는 것이 필요한데, 이를 정량적 수치로 도와주는 수단을 제공한다. 또한, 주변 영역이 작더라도 그 영역이 사람에게 굉장히 중요한 영역이라면 즉, 이러한 정보다 템플릿 세그멘테이션에 의해 나오면, 주변 영역 영역이 작다고 하더라도 시술이 수행되는 것이 좋은 데, 본 예의 뇌졸중을 자동으로 분석하는 방법은 이러한 판단에 도움이 되는 정량적 정보를 자동으로 준다.
도 36은 전술된 방법들이 사용자 인터페이스의 일 예로 표시된 도면으로서, 뇌졸중 영상 바이오마커 분석을 위한 GUI의 예시이다. 사용자의 요구를 반영하여 설계할 수 있으며, 지속적으로 개선 가능하다.
도 37은 본 개시에 따른 의료 영상으로부터 대표 영상을 추출하는 방법의 일 예를 설명하는 도면이다.
의료 영상으로부터 대표 영상을 추출하는 방법에서, 먼저 의료 영상에서 관심 위치가 선택된다(S21). 이후, 병변의 종류에 따른 영상 처리 지시에 의해 의료 영상을 영상 처리하여 관심 위치를 포함하는 관심 영역이 추출된다(S31). 다음으로, 분할된 관심 영역에 안전 여유(safety margin)을 고려하여 대표 영상이 생성된다(S41).
관심 위치가 선택되기 전에 병변의 종류가 선택될 수 있다. 병변의 종류가 선택되면, 의료 영상을 사용하여 동종 질환에 대해 자동분류자의 학습 루틴을 실행할 수 있다.
관심 위치는 사용자 인터페이스를 통해 의료 영상 상에 점 또는 특정 위치를 지정함으로써 선택될 수 있다. 관심 영역이 추출되는 과정에서 병변의 종류에 따른 영상 처리 지시는 병변을 분할하거나 쓰레쉬홀딩하는 영상 처리의 조건을 포함할 수 있다. 이와 같이 추출된 관심 영역이 대표 영상에 포함되도록 관심 영역에 일정한 안전 여유를 부여하여 대표 영상을 생성할 수 있다.
대표 영상이 생성하는 과정에서 검색 및 관리를 위해 개체의 성별이나 나이 등을 포함하는 환자(patient) 정보, 장기 또는 신체의 부위에 관련된 스터디(study) 정보 및 병변의 종류 등에 관련된 시리즈(series) 정보 중 적어도 하나를 대표 영상에 매칭시킬 수 있다. 이러한 정보에 따라 대표 영상을 계층적(hierarchical)으로 저장할 수 있다. 사용자는 이러한 매칭된 정보를 대표 영상의 검색 및 관리에 사용할 수 있다.
또한, 대표 영상은 의료 영상의 특징, 즉 병변에 따른 영상 처리 과정을 통해 의료 영상의 특징적인 부분을 포함한다. 따라서 다수의 대표 영상을 한꺼번에 이미지로 검색하는 의사는 의료 영상의 특징을 쉽게 파악하면서 브라우징(browsing)할 수 있고, 환자, 스터디 및 시리즈별로 쉽게 계층적으로 저장, 검색 및 관리가 가능하다.
또한, 대표 영상의 생성 과정은 간단한 사용자 인터페이스에 의한 입력에 의해 컴퓨터에 의해 자동으로 수행될 수 있으므로 다수의 의료 영상을 다루는 분야에서 대표 영상을 생성하기가 편리하다.
이하, 의료 영상으로부터 대표 영상을 추출하는 방법의 각 과정을 상세히 설명한다.
도 38은 팝업창을 통해 병변이 선택되는 과정의 일 예를 설명하는 도면이다.
의료 영상으로부터 대표 영상을 추출하는 방법에서, 먼저 의료 영상에서 관심 위치가 선택되기 전에, 팝업창을 통해 병변의 종류가 선택될 수 있다. 본 예에 따른 의료 영상으로부터 대표 영상을 추출하는 방법은 폐, 심장, 뇌, 신장, 간 등에 대한 다양한 의료 영상에 적용될 수 있으며, 대상이 특별히 제한되는 것이 아니다. 또한, 본 예에 따른 의료 영상으로부터 대표 영상을 추출하는 방법은 소프트웨어에 의해 수행될 수 있으며, 병변의 종류에 따라 의료 영상의 가장 인상적인 특징을 대표 영상으로 만드는 특징을 가진다. 따라서, 도 38에 도시된 것과 같이 팝업창을 통해 병변의 종류를 선택하는 과정을 포함하는 것이 바람직하다.
예를 들어, 폐의 의료 영상(예: 흉부 볼륨 CT)을 고려하면, Tumor, Emphysema, Honeycomb, GGO, Micro-calcification 등의 폐질환들이 선택될 수 있다. 팝업창은 병변 또는 의료 영상의 추가 버튼 및 삭제 버튼을 포함할 수 있다.
도 39는 3차원 의료 영상에서 뷰가 선택되는 방법의 일 예를 설명하는 도면이다.
의료 영상에서 관심 위치가 선택된다(S21). 관심 위치의 선택은 전술된 것과 같이 병변의 종류가 선택된 후에 되거나, 병변의 선택이 없는 경우에 수행되거나 모두 가능하다. 다만, 병변의 종류가 선택되면 관심 위치 선택을 위해 시각적으로 또는 의료 영상 상의 정보를 통해 관심 위치 선택에 도움을 주기 위한 영상 전처리 과정이 수행될 수도 있다.
관심 위치는 2차원 의료 영상에서 선택될 수도 있지만, 3차원 의료 영상을 회전하여 뷰(view)를 선택하는 과정을 포함할 수도 있다.
CT, MRI 등의 의료 영상 장치로 획득된 영상은 3차원 볼륨 데이터(10)일 수 있다. 이러한 3차원 볼륨 데이터(10)로부터 필요에 따라 의료 영상을 추출한다. 예를 들어, 도 39에 도시된 것과 같이 3차원 볼륨 데이터를 뷰(1, 3; 보는 방향)에 따라 3차원 이미지의 표면이 투영되는 방식(30, 40)으로 추출될 수 있다. 이러한 뷰의 생성 방법으로는 3D volume rendering, surface rendering, MIP/MinIP, RaySum, Virtual Endoscopy 등으로 다양한 view에서 의료 영상을 생성할 수 있다. 또한, 3차원 볼륨 데이터로부터 2차원 단면(20)이 추출될 수도 있다.
이러한 뷰는 예를 들어, axial, sagittal, coronal 등 신체를 보는 대표적인 방향이 포함한다. 이와 같이 추출된 의료 영상은 기본적으로 2D이지만, 3차원의 이미지를 내포하는 것(예: 30, 40)이기도 하다. 또한, 시간에 따라 변화하거나, 조영제 또는 약물의 투여 여부에 따른 변화를 보는 다른 축을 추가하면 2차원의 의료 영상이 3차원, 4차원 및 5차원 의료 영상으로 생성될 수도 있다.
의료 영상을 추출하는 방법은 전술된 방법 이외에도 3차원 볼륨 데이터(10)으로부터 병변(15)을 포함하는 3차원 볼륨 데이터 일부를 직접 추출해내는 것도 가능하다. 이와 같이 추출된 3차원 볼륨 데이터 일부를 3D 대표 영상(예: 썸네일)화 하는 것도 본 개시의 범위에 포함된다.
이러한 의료 영상을 사용하여 의사 또는 사용자가 특정 위치 또는 점을 관심 위치로 지정할 수 있다. 이에 대해서는 더 후술된다.
도 40은 폐의 영상의 일 예를 보여주는 도면이다.
전술된 것과 같이 획득되는 의료 영상에서 관심 위치가 선택된다. 예를 들어, 관심 위치는 도 40에 도시된 것과 같은 폐 영상에 나타난 Tumor, Emphysema, Honeycomb, GGO, Micro-calcification 등의 폐질환들의 특정 위치(예: 중심)일 수 있다. 이러한 관심 위치의 선택은 의사에 의해 마우스 등의 인터페이스 수단을 통해 지정될 수 있다.
한편, 의사나 사용자가 편리하게 이러한 관심 위치를 선택할 수 있도록 폐 영상에서 병변들이 구분되어 시각화되면 아주 유용하다. 예를 들어, 한국 등록특허공보 제998630호에 개시된 자동분류자를 사용하여 폐질환을 자동분류하는 방법을 사용할 수도 있다. 이 경우, 병변이 선택되면 의료 영상을 사용하여 동종 질환에 대해 자동분류자의 학습 루틴이 수행될 수 있다. 이러한 자동분류자를 사용하여 폐질환들이 도 40에 도시된 폐 영상 상에 구분되어 표시될 수 있다. 이렇게 구분되어 표시된 병변의 일정 부위의 중심 또는 특정 위치를 의사가 지정함으로써 관심 위치가 선택될 수 있다. 이와 다른 예로서, 컴퓨터에 의해 자동으로 병변의 특정 위치를 선택하도록 할 수 있다. 예를 들어, 디스턴스 맵을 사용하여 병변의 경계(boundary)로부터의 거리와 같은 조건을 정해서 병변 내의 점을 잡을 수도 있다. 이후, 자동 선택된 관심 위치를 의사나 사용자가 검증하는 것도 가능할 것이다.
그러나 본 예에 따른 의료 영상으로부터 대표 영상을 추출하는 방법이 이러한 자동분류자에 의해 병변을 구분과정을 반드시 포함할 필요는 없다.
도 41은 썸네일이 생성되는 과정의 일 예를 설명하는 도면이다.
도 41(a)에 도시된 것과 같이, 의료 영상(50)에 관심 위치(61)가 지정된다. 여기서 의료 영상(50)은 도 39에서 설명된 의료 영상(20,30,40) 또는 3차원 볼륨 데이터(10)으로부터 병변(15)을 포함하도록 직접 추출된 3차원 볼륨 데이터 일부일 수 있다.
이후, 도 41(b)에 도시된 것과 같이, 병변의 종류에 따른 영상 처리 지시에 의해 관심 위치(61)를 기준으로 의료 영상을 영상 처리하여 관심 영역(70)이 추출된다(S31). 본 예에 따른 의료 영상으로부터 대표 영상을 추출하는 방법은 Case Sensitive한 방법으로서, 특히 병변의 종류에 따라 미리 설정되거나 과정 중에 설정되는 영상 처리 지시를 사용하여 관심 위치(61)를 포함하는 일정 영역을 영상 처리함으로써 대표 영상에 포함될 관심 영역(70)을 추출한다.
예를 들어, 영상 처리 지시는 관심 위치(61)를 시드(seed)로 하여 병변을 분할(segmentation)하는 조건들(예: 쓰레쉬홀드 방식이나 쓰레쉬홀드 값, 병변 사이즈 필터링 조건 등)을 포함한다. 예를 들어, 관심 위치(61)를 포함하는 일정 영역을 쓰레쉬홀딩하는 영상 처리 지시에 따라 관심 영역(70)이 분할(segmentation)된다.
예를 들어, 병변 패턴(Disease Pattern)을 인식하는 대표 영상(예: 썸네일) 생성기법으로서, 의료 영상에서 Tumor의 Center를 찍으면 Tumor Segmentation에 의해 관심 영역이 분할되고, 여기에 도 41(c)에 도시된 것과 같이, 안전 여유(75; Safety margin)를 부여하여 도 41(d)와 같은 썸네일(thumbnail)이 생성된다. 또는, 안전 여유(75)가 박스(80) 내에 들어오도록 도 41(e)와 같은 썸네일(thumbnail)이 생성된다. 영상 처리 지시는 분할의 방법(예: 어뎁티브 쓰레쉬홀드 등) 또는 다른 조건을 미리 입력받은 것일 수 있다. 안전 여유(75)를 부여한다는 것은, 예를 들어, 분할된 관심 영역(70)을 포함하기 위해 관심 영역의 주변의 일부 영상까지 썸네일에 포함되도록 한다는 의미이다.
한편, 썸네일(예: 도 41(d) 또는 도 41(e))의 사이즈보다 분할된 병변의 사이즈가 더 큰 경우에, 분할된 병변 전체가 포함되도록 썸네일의 사이즈를 변경하는 것도 가능하며, 셈네일의 사이즈를 고정하는 등의 특수한 경우에는 병변의 일부만 썸네일화 하는 것도 가능하다.
Emphysema의 경우, Center를 찍으면 -950HU 이하로 쓰레쉬홀딩하는 등의 영상 처리 지시에 따라 병변이 포함된 관심 영역을 분할한 후, 여기에 도 41(c)에 도시된 것과 같이 안전 여유(75)를 확보한 썸네일이 생성될 수 있다.
Honeycomb 또는 GGO 등의 병변에 대해서는 영상 처리 지시는 Texture based Segmentation을 포함할 수 있다. 예를 들어, 전술된 것과 같이 폐질환을 자동분류하는 자동분류자를 이용한 분류로 관심 위치 주변에 Honeycomb pattern이 있는 Region 분할할 수 있다. 이후, Safety margin을 확보한 썸네일이 생성된다.
전술된 것과 같이, 추가 및 삭제 버튼(Add/Delete)을 통해 각종 질환 추가 삭제가 가능하며, 추가시 동종 질환 자동분류자 학습 루틴을 수행할 수 있다. 예를 들어, 여러 관심 영역, 또는 동종의 썸네일을 선택해서 같은 질환이라 알려주어 자동분류자를 학습시킬 수 있다. 이러한 학습은 이후 검색에도 이용될 수 있다.
대표 영상은 병변을 포함하는 것이 대부분 필요하겠지만, 경우에 따라서는 의료 영상에서 정상 부분의 대표 영상이 필요할 수 있으며, 이 경우 정상 부분이 관심 영역으로 추출되도록 영상 처리 지시를 구성하는 것도 물론 가능하다.
도 42는 썸네일 생성시 영상을 켑쳐하는 방법의 일 예를 설명하는 도면이다.
대표 영상은 예를 들어, 도 42(a) 또는 도 42(b)에 도시된 것과 같이 생성될 수 있다.
예를 들어, 대표 영상을 생성하는 팝업창이 뜬다. 팝업창에서 도 42(a)에 도시된 Line 방식은 MPR, VR, MIP 등 의료 영상에서 Center를 찍고 Dragging으로 boundary를 설정하면, Circle을 외접하는 ROI의 thumbnail capture가 생성된다. 도 42(b)에 도시된 Rect 방식은 MPR, VR, MIP 등 이미지에 직접 시작과 끝을 dragging할 수 있다. 컴퓨터의 내적 계산과정에 의해 Center를 찍고 Dragging하는 과정, 이미지에 직접 시작과 끝을 dragging하는 과정(자동 캡쳐)이 자동으로 수행될 수 있다. Center를 찍고 Dragging하는 과정, 이미지에 직접 시작과 끝을 dragging이 사용자 인터페이스에 의해 수행되는 것도 물론 가능하다.
이외에도 Full 방식은 의료 영상 위에 picking으로 full ROI thumbnail을 생성할 수 있다.
Cine 방식은 추출된 복수의 관심 영역들을 Stacking한 후 시간에 따라서 동영상화한 thumbnail이 생성될 수 있다. 이 경우 영상들이 selection이 되어야 한다.
Rotation 방식은 3D View의 경우에 시작 각도와 끝 각도 그리고 interval 각도를 주면 동영상 thumbnail 생성이 가능하며, 각 각도를 질의하는 과정이 필요할 수 있다.
도 43은 시간에 따라 변하는 영상의 일 예를 설명하는 도면이다.
의료 영상은 전술한 것과 같이, 시간에 따른 변화를 보여주는 것이 필요할 수 있다. 도 43에 도시된 것과 같이 시간축에 따라 의료 영상이 변화할 수 있다. 본 예에서의 대표 영상은 복수의 대표 영상을 시간 간격을 두고 생성하여 이를 시간에 따라 변하는 영상으로 썸네일화할 수 있다.
또한, 시간 축 대신 다른 축을(예: 조영제, 약물의 유무 등) 도입하면 이 또한 변화하는 셈네일을 구현할 수 있다. 이렇게 시간 또는 다양한 4, 5차원의 축을 따라 변하거나 움직이는 썸네일을 생성하고 브라우징할 수 있다. 예를 들어, 시간 및 약물 투여 중 적어도 하나를 포함하는 추가 조건에 따라 변하는 의료 영상에서 복수 회에 걸쳐 다른 시간 또는 다른 조건에서 관심 영역을 분할하여 변하는 또는 움직이는 썸네일을 생성할 수 있다.
도 44는 썸네일이 저장 및 검색되는 방식의 일 예를 설명하는 도면이다.
대표 영상이 생성되는 과정에서 검색 및 관리를 위해 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보 중 적어도 하나를, 바람직하게는 모두를 대표 영상에 매칭시킬 수 있다. 매칭된 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보에 따라 대표 영상을 계층적(hierarchical)으로 저장한다. 이렇게 의료 영상의 특징을 잘 보여주는, 예를 들어, 병변을 잘 나타내는 대표 영상을 계층적으로 저장함으로써, 이후 검색 및 관리가 빠르고 편리하게 된다.
예를 들어, 도 44(a) 및 도 44(b)와 같이 특정 환자를 선택하고 특정 스터디를 선택한 후 특정 시리즈를 선택하면, 대표 영상들이 디스플레이되고, 의사나 사용자는 대표 영상들로부터 시각적 및 직관적으로 의료 영상에 대한 핵심적인 정보를 얻고, 쉽게 검색 및 관리할 수 있다. 또한, 특정 환자별로, 스터디별로 시리즈별로 대표 영상들을 브라우징하기가 용이하여, 필요한 경우 텍스트 정보(환자, 스터디, 시리즈 등)를 사용한 검색도 가능하다.
대표 영상을 사용한 검색 과정에서 대표 영상을 사용하여 다른 병변을 보기 위해 대표 영상의 그레이 스케일(gray scale)을 변경할 수 있다.
예를 들어, 대표 영상을 생성, 저장, 검색 및 관리하는 의료 영상 관리 브라우저(browser)는 Lung Settting 시의 WWL(Window Width Level)로 대표 영상이 생성되었더라도, calcification을 보기 위해서 WWL을 조정할 수 있는 기능을 가질 수 있다. 예를 들어, 대표 영상 생성시의 WWL을 기본 모드로 하여 원본의 density level(보통 의료 영상 데이터는 12bit / voxel)을 유지하면서 Pre-determined WWL 사용하여 WWL을 조정할 수 있다.
본 개시에 따른 의료 영상으로부터 대표 영상을 추출하는 방법은 이러한 대표 영상을 생성, 저장, 검색 및 관리하는 의료 영상 관리 매니저(medical image manager) 프로그램에 의해 실행될 수 있다.
이하 본 개시의 다양한 실시 형태에 대하여 설명한다.
(1) 뇌경색(cerebral infarction) 영역의 분할(segmentation) 방법에 있어서, 복수의 뇌영상을 사용하여 뇌영상의 템플릿 히스토그램(histogram)을 생성하는 단계; 분할 대상이 되는 뇌영상의 히스토그램을 템플릿 히스토그램에 매칭하는 단계; 그리고 매칭된 히스토그램에서 템플릿 히스토그램을 기초로 선정된 쓰레쉬홀드 값(threshold value)을 기준으로 뇌경색 영역을 분할하는 단계:를 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(2) 템플릿 히스토그램을 생성하는 단계는: 복수의 DWI 뇌영상 히스토그램 중 어느 하나의 히스토그램에 대해 다른 히스토그램을 매칭하는 과정; 그리고 매칭된 복수의 히스토그램의 평균을 구하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(3) 템플릿 히스토그램에 매칭하는 단계는: 뇌영상의 히스토그램의 확률분포를 동일하게 유지하면서, 인텐시티 범위가 템플릿 히스토그램의 인텐시티 범위와 동일하게 변형하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(4) 템플릿 히스토그램을 생성하는 단계는: 복수의 DWI 뇌영상 히스토그램 중 어느 하나의 히스토그램에 대해 다른 히스토그램을 매칭하는 과정; 매칭된 복수의 DWI 뇌영상 각각에 대해 뇌경색 영역의 픽셀의 인텐시티의 평균값 및 표준 편차가 구해지는 과정; 그리고 매칭된 복수의 DWI 뇌영상 각각에 대해 뇌경색 영역 이외의 영역의 픽셀의 인텐시티의 평균값 및 표준 편차가 구해지는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(5) 뇌경색 영역을 분할하는 단계는: 뇌경색 영역이 사용자 설정 신뢰도로 분할되도록 복수의 DWI 뇌영상 각각의 표준편차를 고려하여 쓰레쉬홀드 값을 선정하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(6) 쓰레쉬홀드 값에 의해 뇌경색 영역으로 분할된 영역 중 뇌경색 영역이 아닌 영역을 제외하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(7) 쓰레쉬홀드 값을 선정하는 과정은: 복수의 DWI 뇌영상 각각에 대해 뇌실(ventricle) 영역의 픽셀의 인텐시티의 평균값 및 표준편차를 구하는 과정; 그리고 뇌실 영역의 인텐시티 평균값을 고려하여 쓰레쉬홀드 값을 수정하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(8) 뇌경색 영역이 아닌 영역을 제외하는 과정은; 복수의 DWI 뇌영상 각각에 대해 ADC 영상을 생성하는 과정; 그리고 ADC 영상에서 뇌경색 영역이 아닌 영역 및 DWI 영상에서 뇌경색 영역이 아닌 영역을 함께 평가하여 경색 영역으로부터 제외하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
DWI 영상(예: B1000, B0)에서 템플릿 히스토그램을 적용하여 경색 영역을 추출하고, 이와 함께 ADC 영상에서 템플릿 히스토그램을 적용하여 경색 영역을 추출하며, 이들을 함께 고려(예: B1000, B0, ADC 영상)하여 진정한 경색 영역(예: 경색 영역으로 중첩되는 영역)을 찾는 방법도 가능하다.
(9) 히스토그램은 DWI B1000 영상을 기준으로 생성되며, 뇌실 영역은 DWI B0 영상을 기준으로 생성되는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(10) 템플릿 히스토그램의 쓰레쉬홀드 값, 경색 영역의 사이즈 및 ADC 영상에서 쓰레쉬홀딩 값을 파라미터로 변경하며 다양한 조합에 대해 FROC(Free Response Operating Characteristic) 분석을 기초로 FPs(false points) 및 센스티비티를 선택하는 단계;를 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
(11) 뇌영상에 포함된 뇌경색 영역의 구분 방법에 있어서, 적어도 하나의 뇌영상에 포함된 경색 영역 내의 점들 각각의 밝기 정보를 포함하는 정량적 값 집합을 추출하는 단계; 그리고 경색 영역 내의 점들 간의 정량적 값 집합의 차이를 기초로 점들 각각의 경색으로부터의 회복 가능성을 추정하는 단계;를 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(12) 정량적 값 집합을 추출하는 단계는: 복수의 뇌영상에 포함된 각 경색 영역에서 각각의 점이 가지는 밝기(intensity)를 추출하는 과정; 그리고 복수의 뇌영상 중 적어도 하나의 뇌영상의 경색 영역의 기준점으로부터 각 점까지의 거리를 추출하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(13) 경색으로부터의 회복 가능성을 추정하는 단계는: 경색 영역 내의 점들 간의 정량적 값 집합의 차이를 기초로, 점들 각각의 경색 발생 시점을 분류하는 분류자(classifier)를 사용하여, 점들 각각을 경색 발생 시점에 대응하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(14) 경색으로부터의 회복 가능성을 추정하는 단계는: 경색으로부터 회복된 점들로부터 축적된 정량적 값 집합을 분류함으로써 경색으로부터 회복하는 점을 학습한 분류자를 사용하여, 점들을 경색 회복 가능한 점과 회복 불가능한 점으로 분류하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(15) 정량적 값 집합을 추출하는 단계 이전에, 복수의 뇌 영상들을 정합(registration)하는 단계;를 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(16) 점까지의 거리를 추출하는 과정은: 경색 영역의 디스턴스 맵(distance map)을 생성하는 과정; 그리고 디스턴스 맵을 사용하여 경색 영역의 중심으로부터 각 점까지 거리를 추출하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(17) 분류자는 경색의 발생 시점이 알려진 서로 다른 사람의 뇌영상들로부터 축적된 경색 영역들의 점의 정량적 값 집합을 다중회귀분석(multiple regression) 방법, Support Vector Regression 방법 및 커브피팅(curve fitting) 방법으로 이루어진 군 중에서 적어도 하나를 사용하여 분류하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(18) 복수의 뇌영상은 MRI에 의한 DWI 영상, ADC 영상, PWI 영상, FLAIR 영상, T1 영상 및 T2 영상으로 이루어진 군 중에서 선택된 2개 이상을 포함하며, 정량적 값 집합을 추출하는 단계 이전에, DWI 영상 또는 ADC 영상을 사용하여 경색 영역을 분할(segmentation)하는 단계; PWI 영상을 사용하여 경색 영역 주위의 주변 영역(penumbra)이 분할되는 단계; 그리고 경색 영역이 분할된 DWI 영상, ADC 영상, 또는 주변 영역이 분할된 PWI 영상을 포함하는 뇌영상들이 정합되는 단계;를 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(19) 점의 정략적 값 집합은 뇌 영상에서 점의 위치(x,y,z)와, 점의 밝기DIDWI,DIpWI,DIADC,DIFLAIR,DIT1 DIT2 중 적어도 하나와, 경색 영역의 중심으로부터 거리 DDWI,DpWIDADC,DFLAIR,DT1 및 DT2 중 적어도 하나를 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(20) 점은 복셀(voxel)이며, 복셀의 밝기(intensity)를 추출하는 과정은:
로우패스필터(Lowpass filter)를 사용한 이미지스무딩(image smoothing) 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 구분 방법.
(21) 뇌졸중을 자동으로 분석하는 방법에 있어서, DWI를 사용하여 경색 영역(infarct)을 자동으로 분할하는 단계; PWI를 사용하여 주변 영역(penumbra)를 자동으로 분할하는 단계; 경색 영역이 분할된 DWI 영상과 주변 영역이 분할된 PWI영상을 템플릿 뇌영상과 정합하는 단계; 그리고 정한된 영상에서 DWI-PWI 미스매치를 분석하는 단계;를 포함하는 것을 특지으로 하는 뇌졸중을 자동으로 분석하는 방법.
(22) DWI를 사용하여 경색 영역(infarct)을 자동으로 분할하는 단계는: 히스토그램 매칭을 위한 템플릿을 생성하는 과정; 다이콤 b0와 b1000을 읽어서 ADC를 만드는 과정; 히스토그램 매칭을 수행하는 과정; ADC 맵에서 노이즈를 제거하고(False positive reduction based on ADC)하는 과정; 그리고 FROC 분석을 수행하며, 최종 정확도(final accuracy)와 false positive를 확인하는 과정;을 포함하는 것을 특징으로 하는 뇌졸중을 자동으로 분석하는 방법.
(23) PWI를 사용하여 주변 영역(penumbra)를 자동으로 분할하는 단계는: DICOMs 데이터를 가지고 와서, phases를 채크하rh, realignment하는 과정; spatial and temporal smoothing, 및 parallelized gamma fitting을 수행하는 과정; TTP를 계산하여 MCA를 찾고, AIF를 결정하는 과정; 그리고 AIF를 사용하여 Deconvolution을 수행하여, Tmax를 계산하는 과정;을 포함하는 것을 특징으로 하는 뇌졸둥을 자동으로 분석하는 방법.
(24) 경색 영역이 분할된 DWI 영상과 주변 영역이 분할된 PWI영상을 템플릿 뇌영상과 정합하는 단계 이후, FLAIR가 함께 정합되는 것을 특징으로 하는 뇌졸중을 자동으로 분석하는 방법.
(25) 검색 및 관리를 위하여 의료 영상으로부터 대표 영상을 추출하는 방법에 있어서, 의료 영상에서 관심 위치를 선택하는 단계; 병변의 종류에 따른 영상 처리 지시에 의해 의료 영상을 영상 처리하여 관심 위치를 포함하는 관심 영역을 추출하는 단계; 그리고 추출된 관심 영역에 안전 여유(safety margin)을 부여하여 대표 영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(26) 관심 위치를 선택하는 단계 전에, 병변의 종류가 선택되는 단계;를 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(27) 의료 영상에서 관심 위치를 선택하는 단계는: 사용자 인터페이스를 통해 의해 의료 영상 상에 관심 위치가 지정되는 과정;을 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(28) 관심 영역을 추출하는 단계는: 관심 위치를 포함하는 병변을 분할(segmentation)하는 영상 처리 지시에 따라 관심 영역을 분할하는 과정;을 포함하는 것을 특징으로 하는 의료 영상의 추출된 대표 영상을 생성하는 방법.
(29) 관심 영역을 추출하는 단계는: 관심 위치를 포함하는 병변을 쓰레쉬홀딩하는(thresholding) 영상 처리 지시에 따라 관심 영역을 분할하는 과정:을 포함하는 것을 특징으로 하는 의료 영상의 추출된 대표 영상을 생성하는 방법.
(30) 의료 영상에서 관심 위치를 선택하는 단계는: 3차원 의료 영상을 회전하여 뷰(view)를 선택하는 과정;을 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(31) 관심 영역을 추출하는 단계는: 시간, 조영제 및 약물 투여 중 적어도 하나를 포함하는 추가 조건에 따라 변하는 의료 영상에서 추가 조건을 달리하여 복수 회에 걸쳐 관심 영역을 분할하는 과정;을 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(32) 관심 영역을 추출하는 단계는: 뷰의 각도 범위, 인터벌 각도를 정하여 복수의 관심 영역이 추출되는 과정;을 포함하며, 대표 영상을 생성하는 단계는:
복수의 관심 영역을 사용하여 동영상 썸네일을 생성하는 과정;을 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(33) 병변이 선택되면 의료 영상을 사용하여 동종 질환 자동분류자의 학습 루틴이 수행되는 단계;를 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(34) 생성된 대표 영상을 사용하여 다른 병변을 보기 위해 대표 영상의 그레이 스케일(gray scale)을 변경하는 단계;를 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(35) 대표 영상이 생성되는 단계는: 검색 및 관리를 위해 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보 중 적어도 하나를 대표 영상에 매칭시키는 과정; 그리고 매칭된 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보에 따라 대표 영상을 계층적(hierarchical)으로 저장하는 과정;을 포함하는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
(36) 관심 위치를 선택하는 단계 전에, 폐 병변 선택 버튼과, 의료 영상의 추가 버튼 및 삭제 버튼을 포함하는 인터페이스를 통해 병변이 선택되는 단계;를 포함하며, 의료 영상에서 관심 위치를 선택하는 단계는: 사용자 인터페이스를 통해 의료 영상의 병변 상에 적어도 한 점이 지정되는 과정;을 포함하며, 관심 영역이 분할되는 단계는: 관심 위치를 시드(seed)로 하여 병변을 분할(segmentation)하거나 쓰레쉬홀딩하는 영상 처리 지시에 따라 관심 영역을 분할하는 과정;을 포함하며, 대표 영상이 생성되는 단계에서, 대표 영상은 썸네일(thumbnail)로 생성되며, 썸네일에는 검색 및 관리를 위해 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보 중 적어도 하나가 매칭되며, 매칭된 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보에 따라 썸네일이 계층적(hierarchical)으로 저장되는 것을 특징으로 하는 의료 영상으로부터 대표 영상을 추출하는 방법.
본 개시에 따른 하나의 뇌경색 영역의 분할 방법에 의하면, 뇌경색 영역을 히스토그램을 기초로 정확하게 정량적으로 분할할 수 있다.
본 개시에 따른 다른 하나의 뇌경색 영역의 분할 방법에 의하면, 뇌경색 영역을 히스토그램에 쓰레쉬홀드 값을 적용하여 자동으로 분할할 수 있다.
본 개시에 따른 하나의 뇌경색 영역의 구분 방법에 의하면, 경색 영역 내의 복셀들이 발생 시점 또는 경색 회복 가능성이 서로 다른 것(heterogenity)을 밝히고, 더 정확한 경색 영역의 판정 방법을 개시한다.
본 개시에 따른 다른 하나의 뇌경색 영역의 분할 방법에 의하면, 과평가(overestimated)된 경색 영역에서 살아날 가능성이 있는 영역에 대해 복셀 별로 정량적, 객관적으로 판단할 수 있는 근거를 제공한다.
본 개시에 따른 하나의 뇌졸중을 자동으로 분석하는 방법에 의하면, 경색 영역, 주변영역의 미스매치를 자동으로 분석하여 판단의 수단을 제공한다.
본 개시에 따른 다른 하나의 뇌졸중을 자동으로 분석하는 방법에 의하면, 경색 영역, 주변영역의 미스매치를 자동으로 분석하여 판단의 수단을 제공하되, 뇌의 부위에 대한 판단까지 할 수 있는 수단을 함께 제공한다.
본 개시에 따른 하나의 의료 영상으로부터 대표 영상을 추출하는 방법에 의하면, 대표 영상은 의료 영상의 특징, 즉 병변에 따른 영상 처리 과정을 통해 의료 영상의 특징적인 부분을 포함하므로, 연구나 논문 작성을 위해 다수의 대표 영상을 한꺼번에 이미지로 검색하는 의사나 연구자가 의료 영상의 특징을 쉽게 파악하면서 브라우징(browsing)할 수 있다.
또한, 대표 영상의 생성 과정은 간단한 사용자 인터페이스에 의한 입력에 의해 컴퓨터에 의해 자동으로 수행될 수 있으므로 다수의 의료 영상을 다루는 의료 영상 분야에서 대표 영상을 생성하기가 편리하다.
또한, 대표 영상이 생성되는 과정에서 검색 및 관리를 위해 환자(patient) 정보, 스터디(study) 정보 및 시리즈(series) 정보 등에 따라 대표 영상을 계층적(hierarchical)으로 저장하므로, 의사나 연구자는 이러한 정보를 사용하여 의료 영상의 대표 영상의 검색 및 관리하기가 용이하다.

Claims (10)

  1. 뇌경색(cerebral infarction) 영역의 분할(segmentation) 방법에 있어서,
    복수의 뇌영상을 사용하여 뇌영상의 템플릿 히스토그램(histogram)을 생성하는 단계;
    분할 대상이 되는 뇌영상의 히스토그램을 템플릿 히스토그램에 매칭하는 단계; 그리고
    매칭된 히스토그램에서 템플릿 히스토그램을 기초로 선정된 쓰레쉬홀드 값(threshold value)을 기준으로 뇌경색 영역을 분할하는 단계:를 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  2. 청구항 1에 있어서,
    템플릿 히스토그램을 생성하는 단계는:
    복수의 DWI 뇌영상 히스토그램 중 어느 하나의 히스토그램에 대해 다른 히스토그램을 매칭하는 과정; 그리고
    매칭된 복수의 히스토그램의 평균을 구하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  3. 청구항 1에 있어서,
    템플릿 히스토그램에 매칭하는 단계는:
    뇌영상의 히스토그램의 확률분포를 동일하게 유지하면서, 인텐시티 범위가 템플릿 히스토그램의 인텐시티 범위와 동일하게 변형하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  4. 청구항 1에 있어서,
    템플릿 히스토그램을 생성하는 단계는:
    복수의 DWI 뇌영상 히스토그램 중 어느 하나의 히스토그램에 대해 다른 히스토그램을 매칭하는 과정;
    매칭된 복수의 DWI 뇌영상 각각에 대해 뇌경색 영역의 픽셀의 인텐시티의 평균값 및 표준 편차를 구하는 과정; 그리고
    매칭된 복수의 DWI 뇌영상 각각에 대해 뇌경색 영역 이외의 영역의 픽셀의 인텐시티의 평균값 및 표준 편차를 구하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  5. 청구항 4에 있어서,
    뇌경색 영역을 분할하는 단계에서,
    뇌경색 영역이 사용자 설정 신뢰도로 분할되도록 복수의 DWI 뇌영상 각각의 표준편차를 고려하여 쓰레쉬홀드 값을 선정하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  6. 청구항 4에 있어서,
    쓰레쉬홀드 값에 의해 뇌경색 영역으로 분할된 영역 중 뇌경색 영역이 아닌 영역을 제외하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  7. 청구항 5에 있어서,
    쓰레쉬홀드 값을 선정하는 과정은:
    복수의 DWI 뇌영상 각각에 대해 뇌실(ventricle) 영역의 픽셀의 인텐시티의 평균값 및 표준편차를 구하는 과정; 그리고
    뇌실 영역의 인텐시티 평균값을 고려하여 쓰레쉬홀드 값을 수정하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  8. 청구항 6에 있어서,
    뇌경색 영역이 아닌 영역을 제외하는 과정은;
    복수의 DWI 뇌영상 각각에 대해 ADC 영상을 생성하는 과정; 그리고
    ADC 영상에서 뇌경색 영역이 아닌 영역 및 DWI 영상에서 뇌경색 영역이 아닌 영역을 함께 평가하여 경색 영역으로부터 제외하는 과정;을 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  9. 청구항 7에 있어서,
    히스토그램은 DWI B1000 영상을 기준으로 생성되며,
    뇌실 영역은 DWI B0 영상을 기준으로 생성되는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
  10. 청구항 8에 있어서,
    템플릿 히스토그램의 쓰레쉬홀드 값, 경색 영역의 사이즈 및 ADC 영상에서 쓰레쉬홀딩 값을 파라미터로 변경하며, 파라미터의 조합에 대해 FROC(Free Response Operating Characteristic) 분석을 기초로 FPs(false points) 및 센스티비티를 선택하는 단계;를 포함하는 것을 특징으로 하는 뇌경색 영역의 분할 방법.
PCT/KR2014/012760 2013-12-23 2014-12-23 뇌경색 영역의 분할 방법 WO2015099426A1 (ko)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
KR1020130161295A KR20150073519A (ko) 2013-12-23 2013-12-23 뇌경색 영역의 구분 방법
KR10-2013-0161295 2013-12-23
KR10-2014-0034851 2014-03-25
KR1020140034846A KR101578483B1 (ko) 2014-03-25 2014-03-25 뇌경색 영역의 분할 방법
KR1020140034851A KR101634334B1 (ko) 2014-03-25 2014-03-25 의료 영상으로부터 대표 영상을 추출하는 방법
KR10-2014-0034846 2014-03-25
KR10-2014-0128073 2014-09-25
KR20140128073 2014-09-25

Publications (1)

Publication Number Publication Date
WO2015099426A1 true WO2015099426A1 (ko) 2015-07-02

Family

ID=53479197

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/012760 WO2015099426A1 (ko) 2013-12-23 2014-12-23 뇌경색 영역의 분할 방법

Country Status (1)

Country Link
WO (1) WO2015099426A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3269301A4 (en) * 2015-03-12 2020-02-19 The Asan Foundation METHOD FOR ESTIMATING THE DATE OF INFARM ON THE BASIS OF BRAIN DAMAGE
CN111986242A (zh) * 2020-07-28 2020-11-24 沈阳东软智能医疗科技研究院有限公司 脑组织分区的确定方法、装置、存储介质及电子设备
CN113951912A (zh) * 2021-09-10 2022-01-21 数坤(北京)网络科技股份有限公司 一种脑灌注后处理方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126150A (ja) * 1998-10-23 2000-05-09 Ge Yokogawa Medical Systems Ltd 関心領域設定方法、画像処理装置および医用画像処理装置
JP2004024637A (ja) * 2002-06-27 2004-01-29 Toshiba Corp Mri装置およびmri画像撮影方法
US20080021502A1 (en) * 2004-06-21 2008-01-24 The Trustees Of Columbia University In The City Of New York Systems and methods for automatic symmetry identification and for quantification of asymmetry for analytic, diagnostic and therapeutic purposes
US20090080748A1 (en) * 2002-10-18 2009-03-26 Cornell Research Foundation, Inc. System, Method and Apparatus for Small Pulmonary Nodule Computer Aided Diagnosis from Computed Tomography Scans
US20100231216A1 (en) * 2006-10-03 2010-09-16 Singapore Agency For Science Technology And Research Act Segmenting infarct in diffusion-weighted imaging volume

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126150A (ja) * 1998-10-23 2000-05-09 Ge Yokogawa Medical Systems Ltd 関心領域設定方法、画像処理装置および医用画像処理装置
JP2004024637A (ja) * 2002-06-27 2004-01-29 Toshiba Corp Mri装置およびmri画像撮影方法
US20090080748A1 (en) * 2002-10-18 2009-03-26 Cornell Research Foundation, Inc. System, Method and Apparatus for Small Pulmonary Nodule Computer Aided Diagnosis from Computed Tomography Scans
US20080021502A1 (en) * 2004-06-21 2008-01-24 The Trustees Of Columbia University In The City Of New York Systems and methods for automatic symmetry identification and for quantification of asymmetry for analytic, diagnostic and therapeutic purposes
US20100231216A1 (en) * 2006-10-03 2010-09-16 Singapore Agency For Science Technology And Research Act Segmenting infarct in diffusion-weighted imaging volume

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3269301A4 (en) * 2015-03-12 2020-02-19 The Asan Foundation METHOD FOR ESTIMATING THE DATE OF INFARM ON THE BASIS OF BRAIN DAMAGE
CN111986242A (zh) * 2020-07-28 2020-11-24 沈阳东软智能医疗科技研究院有限公司 脑组织分区的确定方法、装置、存储介质及电子设备
CN111986242B (zh) * 2020-07-28 2023-07-18 沈阳东软智能医疗科技研究院有限公司 脑组织分区的确定方法、装置、存储介质及电子设备
CN113951912A (zh) * 2021-09-10 2022-01-21 数坤(北京)网络科技股份有限公司 一种脑灌注后处理方法和装置

Similar Documents

Publication Publication Date Title
Shattuck et al. Magnetic resonance image tissue classification using a partial volume model
WO2020242239A1 (ko) 앙상블 학습 알고리즘을 이용한 인공지능 기반 진단 보조 시스템
WO2016080813A1 (en) Method and apparatus for processing medical image
Cavalcanti et al. Pigmented skin lesion segmentation on macroscopic images
WO2015076607A1 (en) Apparatus and method for processing a medical image of a body lumen
García-Lorenzo et al. Multiple sclerosis lesion segmentation using an automatic multimodal graph cuts
Mikulka et al. Soft-tissues image processing: Comparison of traditional segmentation methods with 2D active contour methods
US9171366B2 (en) Method for localization of an epileptic focus in neuroimaging
WO2020076133A1 (ko) 암 영역 검출의 유효성 평가 장치
WO2020076135A1 (ko) 암 영역에 대한 딥러닝 모델 학습 장치 및 방법
WO2015099426A1 (ko) 뇌경색 영역의 분할 방법
EP3220826A1 (en) Method and apparatus for processing medical image
Despotovic et al. Brain volume segmentation in newborn infants using multi-modal MRI with a low inter-slice resolution
Faisal et al. Computer assisted diagnostic system in tumor radiography
Srimathi et al. An efficient cancer classification model for CT/MRI/PET fused images
Ben Salah et al. Fully automated brain tumor segmentation using two mri modalities
Beaumont et al. Automatic Multiple Sclerosis lesion segmentation from Intensity-Normalized multi-channel MRI
Dutta et al. Automatic segmentation of polyps in endoscopic image using level-set formulation
Koukounis et al. Retinal image registration based on multiscale products and optic disc detection
Milles et al. Fully automated registration of first-pass myocardial perfusion MRI using independent component analysis
WO2020076134A1 (ko) 암 영역 정보 보정 장치 및 방법
Sood et al. Various techniques for detecting skin lesion: a review
WO2023075480A1 (ko) 의료 영상의 예측된 목적 부위에 대한 임상 파라미터를 제공하기 위한 방법, 장치, 레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치
Udupa et al. Detection and quantification of MS lesions using fuzzy topological principles
Rajyalakshmi et al. Breast cancer cell-nuclei extraction using modified multi-phase level sets

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14875493

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14875493

Country of ref document: EP

Kind code of ref document: A1