WO2018093189A1 - 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램 - Google Patents

급성뇌경색 발생시점 추정시스템, 방법 및 프로그램 Download PDF

Info

Publication number
WO2018093189A1
WO2018093189A1 PCT/KR2017/013073 KR2017013073W WO2018093189A1 WO 2018093189 A1 WO2018093189 A1 WO 2018093189A1 KR 2017013073 W KR2017013073 W KR 2017013073W WO 2018093189 A1 WO2018093189 A1 WO 2018093189A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
patient
cerebral infarction
feature information
acute cerebral
Prior art date
Application number
PCT/KR2017/013073
Other languages
English (en)
French (fr)
Inventor
김남국
이현나
함성원
강동화
Original Assignee
재단법인 아산사회복지재단
울산대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 아산사회복지재단, 울산대학교 산학협력단 filed Critical 재단법인 아산사회복지재단
Priority to EP17871182.6A priority Critical patent/EP3543952B1/en
Publication of WO2018093189A1 publication Critical patent/WO2018093189A1/ko
Priority to US16/417,159 priority patent/US11026620B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/004Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part
    • A61B5/0042Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for image acquisition of a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4058Detecting, measuring or recording for evaluating the nervous system for evaluating the central nervous system
    • A61B5/4064Evaluating the brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods

Definitions

  • the present invention relates to a system, a method and a program for estimating the time point of occurrence of acute cerebral infarction. It's about the program.
  • thrombolysis which assists in the opening of cerebrovascular vessels blocked by blood clots or embolism and prevents damage to brain cells, is widely known as a method for treating patients with acute cerebral infarction. Because thrombolysis should be done quickly before brain cells are damaged, it should be done as soon as possible from the time of cerebral infarction.
  • the present invention automatically analyzes the infarct area using the characteristics of diffusion-enhanced and liquid-damped reversal images in magnetic resonance images (MRI) of patients with acute cerebral infarction, and based on the characteristic information in the infarct area.
  • MRI magnetic resonance images
  • the present invention provides a system, method and program for estimating the incidence of acute cerebral infarction, by estimating the elapsed time after the occurrence of cerebral infarction and providing information to medical staff so as to quickly determine whether the patient can be treated.
  • the computer receives a first image and a second image of a specific first patient for which the acute cerebral infarction has not been confirmed, and the first image is liquid attenuation.
  • An inverted recovery image wherein the second image is a diffusion-enhanced image; Extracting an infarct region image from the second image; Setting the infarct region in the first image by matching the second image to the first image; Extracting feature information in an infarct region of the first image; Comprising a step of calculating the elapsed time from the time of occurrence of acute cerebral infarction by comparing the extracted feature information with the reference data.
  • the present invention as described above, it is possible to estimate the time of occurrence of acute cerebral infarction of the patient that is not confirmed when the fall to acute cerebral infarction. Through this, it is possible to reduce the patient who misses the time to perform the thrombolysis as it can not determine whether the treatment through thrombolysis.
  • the computer automatically calculates the elapsed time quickly based on the liquid decay reverse recovery image and the diffusion-enhanced image, it is possible to quickly determine the elapsed time after the occurrence of acute cerebral infarction and determine whether to perform treatment immediately. Therefore, by reducing the time required for the medical staff who can determine whether thrombolysis is performed by reading the MR image, the ratio of patients who can treat acute cerebral infarction can be increased.
  • FIG. 1 is a flowchart of a method for estimating acute cerebral infarction time point according to an embodiment of the present invention.
  • FIG. 2 is an exemplary diagram illustrating a process of applying a method for estimating the time of occurrence of acute cerebral infarction in a first image and a second image according to an embodiment of the present invention.
  • FIG. 3 is a flowchart of an infarct region image extraction process according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of a method for estimating acute cerebral infarction time point further comprising the step of generating reference data according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a process of generating reference data in the form of a support vector machine according to an embodiment of the present invention.
  • FIG. 6 is a flow chart of a method for estimating acute cerebral infarction time point further comprising the step of extracting the relative signal amount of the first image according to an embodiment of the present invention.
  • FIG. 7 is a flow chart of a method for estimating acute cerebral infarction time point further comprising the step of generating a ratio map for the first image according to an embodiment of the present invention.
  • FIG. 8 is a block diagram of a system for estimating acute cerebral infarction time point according to an embodiment of the present invention.
  • FIG. 9 is a block diagram of an acute cerebral infarction occurrence time estimation system according to another embodiment of the present invention.
  • FIG. 10 is a block diagram of an acute cerebral infarction occurrence time estimation system according to another embodiment of the present invention.
  • the computer receives a first image and a second image of a specific first patient for which the acute cerebral infarction has not been confirmed, and the first image is liquid attenuation.
  • An inverted recovery image wherein the second image is a diffusion-enhanced image; Extracting an infarct region image from the second image; Setting the infarct region in the first image by matching the second image to the first image; Extracting feature information in an infarct region of the first image; Comprising a step of calculating the elapsed time from the time of occurrence of acute cerebral infarction by comparing the extracted feature information with the reference data.
  • the second patient is a patient confirmed the occurrence of acute cerebral infarction Can be.
  • the infarct area image extraction step may include: standardizing an intensity of an apparent diffusion coefficient map of the second image; And extracting the infarct region by searching the absolute reference value in the standardized apparent diffusion coefficient map.
  • the method may further include extracting a relative signal amount of the infarct region by comparing the infarct region with a symmetric region which is a position symmetric to the infarct region in the brain of the first patient.
  • the method may further include generating a ratio map that visually expresses a relative signal amount of the symmetric area and the infarct area.
  • the feature information may include first feature information extracted from an infarct region in the first image; And second feature information extracted from an infarct region in the ratio map of the first image.
  • the method may further include determining and notifying whether the elapsed time is within a reference time.
  • the setting of the infarct area in the first image may be performed by applying an enlargement / reduction, symmetry, or rotation to the first image or the second image based on the skeletal position in the first image and the second image.
  • the matching may be characterized.
  • the feature information may be extracted by applying at least one of a gray level cooccurrence matrix, a run-length matrix, and a local binary pattern to the signal intensity and the change degree of the infarct region. Can be.
  • the method may further include generating reference data by the support vector machine based on the first image and the second image of the plurality of second patients, wherein the generating of the reference data comprises: training groups of the plurality of second patients. Classifying the verification group and the test group; Extracting feature information of the second patient from the first image of the second patient by matching the first image and the second image of the second patient included in the training group; Learning a support vector machine through the feature information of the second patient; Determining a support vector machine type from the verification group; And determining whether the test group is set as reference data by applying the test group to the determined support vector machine.
  • the reference data may be classified into subgroups according to gender information or age information of the second patient.
  • the elapsed time calculating step may be performed based on the age information or sex information of the first patient.
  • the detailed group to be compared with the feature information of the first patient may be set.
  • the image storage module for storing a first image and a second image for a specific first patient has not been confirmed acute cerebral infarction occurrence time;
  • An infarct region image extraction module for extracting an infarct region image from the second image;
  • An image matching module for matching the second image with the first image;
  • An infarct area setting module for setting an infarct area in the first image in which the second image is matched;
  • a feature information extraction module for extracting feature information in the infarct region of the first image;
  • an elapsed time calculation module for calculating an elapsed time from the point of occurrence of an acute cerebral infarction by comparing the extracted feature information with reference data, wherein the first image is a liquid decay reverse recovery image, and the second image is diffuse emphasized. It is a video.
  • the second patient is a patient confirmed the occurrence of acute cerebral infarction to be.
  • the apparatus may further include a reference data generation module configured to generate reference data by the support vector machine based on the first image and the second image of the plurality of second patients, wherein the reference data generation module may include a plurality of second patients.
  • the reference data generation module may include a plurality of second patients.
  • the infarct region is compared with the symmetric region, which is a position symmetric to the infarct region in the brain of the first patient, and the relative signal amount of the infarct region is extracted, and the relative signal amount between the symmetric region and the infarct region is extracted.
  • a ratio map generation module for generating a ratio map visually represented, wherein the feature information comprises: first feature information extracted from an infarct region in the first image; And second feature information extracted from an infarct region in the ratio map of the first image.
  • the point of time estimation program executes the above-described acute cerebral infarction time point estimation method in combination with hardware and is stored in a medium.
  • the 'first image 10' is a fluid attenuated inversion recovery (FLAIR).
  • the 'second image 20' is a diffusion weighted imaging (hereinafter referred to as DWI).
  • the 'first patient' is a patient for which the time of occurrence of acute cerebral infarction has not been confirmed.
  • the first patient is a patient whose computer needs to know when the acute cerebral infarction occurs.
  • the 'second patient' is a patient whose time of occurrence of acute cerebral infarction has been confirmed.
  • a computer includes all of various devices capable of performing arithmetic processing to present a result visually to a user.
  • a computer can be a desktop PC, a notebook, as well as a smartphone, a tablet PC, a cellular phone, a PCS phone (Personal Communication Service phone), synchronous / asynchronous The mobile terminal of the International Mobile Telecommunication-2000 (IMT-2000), a Palm Personal Computer (PC), a Personal Digital Assistant (PDA), and the like may also be applicable.
  • the computer may also correspond to medical equipment for acquiring or observing angiography images.
  • FIG. 1 is a flowchart of a method for estimating acute cerebral infarction time point according to an embodiment of the present invention.
  • FIG. 2 is an exemplary diagram illustrating a process of applying a method for estimating the time of occurrence of acute cerebral infarction in a first image and a second image according to an embodiment of the present invention.
  • a computer may include a first image 10 and a second image 20 of a specific first patient for which the acute cerebral infarction has not been identified.
  • Obtaining S200; image receiving step); Extracting an infarct region image from the second image 20 (S400); Setting the infarct region in the first image (10) by matching the second image (20) with the first image (10); Extracting feature information in an infarct region of the first image 10 (S1000); And comparing the extracted feature information with reference data to calculate an elapsed time from the time of occurrence of an acute cerebral infarction (S1200).
  • Diffusion-enhanced images show acute cerebral infarction areas within a short time after acute cerebral infarction occurs and can immediately identify the extent of acute cerebral infarction.
  • the liquid attenuation reversal recovery image is gradually darkened in acute cerebral infarction range as time passes after the occurrence of acute cerebral infarction.
  • the liquid attenuation reversal recovery image ie, FLAIR image
  • FLAIR image is the point of occurrence of acute cerebral infarction. Therefore, we attempt to identify the time course of acute cerebral infarction based on the inconsistency between DWI and FLAIR images.
  • the computer receives the first image 10 and the second image 20 for the specific first patient whose acute cerebral infarction has not been confirmed (S200; image receiving step).
  • the computer may directly receive medical image data photographed from a magnetic resonance imaging (MRI) imaging apparatus, and may load and input medical image data stored in a computer or an external server. For example, if the emergency room is to determine the elapsed time after the occurrence of acute cerebral infarction and to urgently plan the treatment, the computer may be used to identify the patient from the magnetic resonance imaging (MRI). It can be received immediately after MR image is taken.
  • MRI magnetic resonance imaging
  • the computer extracts an infarct region image from the second image 20 (S400). That is, the computer grasps the boundary of the infarct region in the second image 20 (that is, the DWI) and extracts the infarct region image.
  • the infarct region image extraction step S400 may include: standardizing an intensity of an apparent diffusion coefficient map of the second image 20 (S410); And extracting the infarct region through the absolute reference value search in the standardized apparent diffusion coefficient map (S420).
  • the computer searches for dark pixels below a certain threshold as the infarct region because the infarct region appears dark in the Apparent Diffusion Coefficient (ADC) map.
  • ADC Apparent Diffusion Coefficient
  • the computer performs a process of standardizing the signal strength in the ADC image map because there is a variation in the brightness distribution of the individual ADC image map itself.
  • the computer then sets the threshold to be the reference of the infarct region in the standardized ADC image map as an absolute value.
  • the computer registers the infarct area in the first image 10 by matching the second image 20 to the first image 10 (S600).
  • the computer matches the second image 20 to the first image 10.
  • the computer performs registration based on the skeletal position in the first image 10 and the second image 20. Since the skull structure of the same patient is the same even if there is a difference in the way of taking the MR image, the computer performs matching based on the skeletal position or structure of the first image 10 and the second image 20.
  • the computer performs registration by applying a zoom, symmetry, or rotation to the first image 10 or the second image 20. When there is a change in the posture of the patient when the first image 10 or the second image 20 is taken, the brain shape in the first image 10 and the second image 20 is different. (10) or the second image 20 is matched by applying zoom, symmetry, or rotation.
  • the computer sets the infarct region in the first image 10 based on the infarct region in the second image 20. That is, the infarct area in the diffuse highlight image in which the infarct area of the acute cerebral infarction patient is displayed within a short time is displayed on the liquid attenuation reverse recovery image (ie, FLAIR image) to set the infarct area in the liquid attenuation reverse recovery image.
  • the liquid attenuation reverse recovery image ie, FLAIR image
  • the computer extracts feature information in the infarct region of the first image 10 (S1000).
  • the feature information is one or more feature elements extracted within a specific region of the image data (ie, MR image).
  • the extracting of the feature information (S1000) may include a gray level cooccurrence matrix (GLCM) and a run-length matrix (e.g., a gray level run-length matrix (GLRLM) with respect to the signal intensity and variation of the infarct region. )),
  • Feature information is extracted by applying at least one of Local Binary Pattern (LBP).
  • LBP Local Binary Pattern
  • the feature information includes various information that can be obtained in the infarct region in the second image 20.
  • the feature information includes size or volume information of the infarct region.
  • the feature information may include mean and standard deviation calculated for each of the signal intensity, gradient, and local binary pattern (LBP) maps in the infarct region. , Skewness, kurtosis.
  • the feature information includes various feature elements obtained by applying a Gray Level Cooccurrence Matrix or a Run-Length Matrix. For example, when the computer applies the Gray Level Cooccurrence Matrix or Run-Length Matrix, all or part of the feature elements as shown in [Table 1] are obtained and used as the feature information.
  • the computer calculates the elapsed time from the time of occurrence of acute cerebral infarction by comparing the extracted feature information with reference data (S1200). That is, the computer passes the first patient 10 after the occurrence of acute cerebral infarction based on the characteristic information in the infarct region identified by the second image 20 (ie, DWI) in the first image 10 (ie, the FLAIR image). Calculate the time.
  • the feature information in the infarct region may include information about the extent to which the infarct region is expressed in the FLAIR image or information about an image type displayed in the infarct region.
  • the reference data includes characteristic information included in the infarct region in the first image 10 for at least one second patient and elapsed time from the time of occurrence of acute cerebral infarction.
  • the computer searches within the reference data the characteristic information of the second patient to which the characteristic information of the first patient corresponds, and determines the elapsed time after the occurrence of the acute cerebral infarction of the second patient as the elapsed time of the first patient.
  • the computer generates acute data by generating reference data as a support vector machine (hereinafter referred to as SVM) and applying characteristic information to the SVM of a first patient that needs to confirm the time point of occurrence of acute cerebral infarction. Elapsed time after cerebral infarction occurs.
  • SVM support vector machine
  • determining whether or not the elapsed time is within a reference time step further includes.
  • Acute cerebral infarction treatment performance may vary depending on whether a particular baseline has been exceeded. Therefore, it is necessary to inform medical staff quickly whether a specific time (eg, 4.5 hours or 6 hours) has elapsed after an acute cerebral infarction has occurred, and guide the medical staff to quickly develop a treatment plan.
  • treatment options vary according to the time elapsed from the on-set.
  • Intravenous recombinant tissue plasminogen activator rt-PA
  • intraarterial mechanical thrombectomy is performed up to 6 hours after acute cerebral infarction.
  • arterial mechanical thrombectomy works. Therefore, the computer may determine whether the reference time has elapsed based on the elapsed time after the occurrence of the acute cerebral infarction calculated for the first patient so that the medical staff can quickly determine the treatment method and proceed with the treatment.
  • FIG. 4 Another embodiment of the present invention, as shown in Figure 4, based on the first image 10 and the second image 20 of the plurality of second patients, to generate the reference data in the form of a support vector machine Step (S100); further comprises. That is, the computer generates a support vector machine (SVM) for performing machine learning based on feature information of a plurality of second patients constructed with big data.
  • the feature information for the second patient is performed in the same manner as the method for obtaining feature information for the first patient. That is, the computer matches the first image 10 and the second image 20 for each second patient, and applies an infarct region identified in the second image 20 to the first image 10 to infarct. After setting the area, feature information is extracted in the infarct area.
  • SVM support vector machine
  • the reference data generation step (S100), as shown in Figure 5, the step of classifying a plurality of second patients into a training group, verification group and test group (S110); Extracting characteristic information of a second patient from the first image 10 of the second patient through matching of the first image 10 and the second image 20 of the second patient included in the training group; (S120); Learning a support vector machine through the feature information of the second patient (S130); Determining a support vector machine shape of the verification group (S140); And determining whether to set the reference data as reference data by applying the test group to the determined support vector machine (S150).
  • the computer may have a plurality of second patients. 60% of total second patients), verification group (eg 20% of all second patients) and test group (eg 20% of all second patients) and then training
  • the selected SVM is selected by applying the characteristic information of the second patient in the verification group, and the evaluation is performed whether the optimal SVM corresponds to the characteristic information of the second patient included in the test group.
  • the reference data is classified into subgroups according to gender information or age information of the second patient.
  • the plurality of second patients are divided into a plurality of subgroups according to gender or age, and data for calculating the elapsed time for each subgroup is generated.
  • the computer may create an SVM for each subgroup of the second patient.
  • the elapsed time calculating step (S1200) based on the age information or gender information of the first patient, sets a detailed group to be compared with the characteristic information of the first patient.
  • the relative signal amount of the infarct area Extracting step (S700); may further include. Since the MR image is expressed as a relative signal amount in one image to be photographed, the signal amount of the infarct region cannot be applied as an absolute signal amount. Therefore, by using the characteristics of the brain symmetrically based on a specific boundary line, the computer calculates a relative signal amount of the infarct region in comparison with the symmetric region, which is a position symmetric to the infarct region in the first image 10.
  • the feature information extracted from the infarct region in the first image 10 of the first patient and the first image 10 of the second patient 10 are calculated.
  • the feature information extracted from the infarct region can be compared.
  • another embodiment of the present invention further includes generating a ratio map 30 that visually expresses a relative signal amount between the symmetric area and the infarct area (S800). .
  • the feature information may include a first feature extracted from an infarct region in the first image 10. Information; And second feature information extracted from an infarct region in the ratio map 30 with respect to the first image 10. That is, the computer utilizes one or more feature elements extracted from the ratio image 30 of the first image 10 itself and the first image 10 as the feature information.
  • FIG. 8 is a block diagram of a system for estimating acute cerebral infarction time point according to an embodiment of the present invention.
  • an acute cerebral infarction occurrence time estimation system is composed of one or more computers to estimate or calculate the acute cerebral infarction occurrence time.
  • an acute cerebral infarction occurrence time estimation system includes an image storage module 100; Infarct image extraction module 200; Image matching module 300; Infarct area setting module 400; Feature information extraction module 500; And an elapsed time calculation module 600.
  • the image storage module 100 stores the first image 10 and the second image 20 for a specific first patient whose acute cerebral infarction has not been confirmed. That is, the image storage module 100 receives and stores the first image 10 and the second image 20 of the first patient from the MR image photographing apparatus.
  • the image storage module 100 may correspond to a memory existing in the computer.
  • the memory may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, optical disk At least one type of storage medium.
  • the infarct area image extraction module 200 performs a role of extracting the infarct area image from the second image 20. That is, the infarct region image extraction module 200 grasps the boundary of the infarct region in the second image 20 (that is, DWI) and extracts the infarct region image.
  • the image matching module 300 serves to match the second image 20 to the first image 10. In one embodiment, the image registration module 300 performs registration based on the skeleton or brain shape in the first image 10 and the second image 20.
  • the infarct area setting module 400 sets the infarct area in the first image 10 in which the second image 20 is matched. That is, the infarct area setting module 400 displays the infarct area boundary in the DWI in which the infarct area of the acute cerebral infarction patient is displayed within a short time in the liquid attenuation reverse recovery image (ie, the FLAIR image). To set the infarct area in the liquid attenuation reversal recovery image.
  • the feature information extraction module 500 extracts feature information in the infarct region of the first image 10.
  • the feature information is one or more feature elements extracted within a specific region of the image data (ie, MR image).
  • the feature information extraction module 500 may include a Gray Level Cooccurrence Matrix (GLCM) and a Run-Length Matrix (particularly, a Gray Level Run-Length Matrix (GLRLM) with respect to signal intensity and variation of the infarct region. )), Feature information is extracted by applying at least one of Local Binary Pattern (LBP).
  • LBP Local Binary Pattern
  • the elapsed time calculation module 600 calculates the elapsed time from the time of occurrence of acute cerebral infarction by comparing the extracted feature information with reference data. That is, the elapsed time calculation module 600 is based on the characteristic information in the infarct region of the second image 20 (that is, DWI) in the first image 10 (that is, FLAIR image) acute cerebral infarction of the first patient The elapsed time after occurrence is calculated.
  • the infarct area image extraction module 200, the image matching module 300, the infarct area setting module 400, the feature information extraction module 500, and the elapsed time calculation module 600 are software-based on a processor which is hardware in a specific computer. Included.
  • the acute cerebral infarction occurrence time estimation system further includes a reference data generation module 700.
  • the reference data generation module 700 generates a reference data as a support vector machine based on the first image 10 and the second image 20 of the plurality of second patients.
  • the reference data generation module 700 may classify a plurality of second patients into a training group, a verification group, and a test group, and include the first image 10 of the second patient included in the training group.
  • the feature information of the second patient is extracted from the first image 10 of the second patient, the support vector machine learning through the feature information of the second patient,
  • the verification group is determined as a support vector machine type, and the test group is applied to the determined support vector machine to determine whether to set the reference data.
  • the acute cerebral infarction occurrence time estimation system further includes a ratio map generation module 800.
  • the ratio map generation module 800 compares the infarct region with a symmetric region, which is a position symmetric to the infarct region in the brain of the first patient, extracts a relative signal amount of the infarct region, and the symmetric region and the infarct.
  • the ratio map 30 visually expresses the relative signal amounts of the region. Since the MR image is expressed as a relative signal amount in one image to be photographed, the signal amount of the infarct region cannot be applied as an absolute signal amount.
  • the ratio map generation module 800 compares the infarct region with the symmetric region, which is a position symmetric to the infarct region in the first image 10. Calculate the signal amount. Accordingly, as the relative signal amount of the infarct region in the first image 10 is calculated, the feature information extracted from the infarct region in the first image 10 of the first patient and the first image 10 of the second patient 10 are calculated. The feature information extracted from the infarct region can be compared. In this case, the feature information may include first feature information extracted from an infarct region in the first image 10; And second feature information extracted from an infarct region in the ratio map 30 with respect to the first image 10.
  • the method for estimating acute cerebral infarction time point according to an embodiment of the present invention described above may be implemented as a program (or an application) and stored in a medium to be executed in combination with a computer which is hardware.
  • the above-described program includes C, C ++, JAVA, machine language, etc. which can be read by the computer's processor (CPU) through the computer's device interface so that the computer reads the program and executes the methods implemented as the program.
  • Code may be coded in the computer language of. Such code may include functional code associated with a function or the like that defines the necessary functions for executing the methods, and includes control procedures related to execution procedures necessary for the computer's processor to execute the functions according to a predetermined procedure. can do.
  • the code may further include memory reference code for additional information or media required for the computer's processor to execute the functions at which location (address address) of the computer's internal or external memory should be referenced. have.
  • the code may be used to communicate with any other computer or server remotely using the communication module of the computer. It may further include a communication related code for whether to communicate, what information or media should be transmitted and received during communication.
  • the stored medium is not a medium for storing data for a short time such as a register, a cache, a memory, but semi-permanently, and means a medium that can be read by the device.
  • examples of the storage medium include, but are not limited to, a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like. That is, the program may be stored in various recording media on various servers to which the computer can access or various recording media on the computer of the user. The media may also be distributed over network coupled computer systems so that the computer readable code is stored in a distributed fashion.
  • the present invention as described above, it is possible to estimate the time of occurrence of acute cerebral infarction of the patient that is not confirmed when the fall to acute cerebral infarction. Through this, it is possible to reduce the patient who misses the time to perform the thrombolysis as it can not determine whether the treatment through thrombolysis.
  • the computer automatically calculates the elapsed time quickly based on the liquid decay reverse recovery image and the diffusion-enhanced image, it is possible to quickly determine the elapsed time after the occurrence of acute cerebral infarction and determine whether to perform treatment immediately. Therefore, by reducing the time required for the medical staff who can determine whether thrombolysis is performed by reading the MR image, the ratio of patients who can treat acute cerebral infarction can be increased.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Neurology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Psychology (AREA)
  • Neurosurgery (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 발명은 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램에 관한 것이다. 본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정방법은, 컴퓨터가 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상(10) 및 제2영상(20)을 획득하는 단계(S200; 영상수신단계); 상기 제2영상(20)에서 경색영역이미지를 추출하는 단계(S400); 상기 제1영상(10)에 상기 제2영상(20)을 정합하여, 제1영상(10) 내 경색영역을 설정하는 단계(S600); 상기 제1영상(10)의 경색영역 내에서 특징정보를 추출하는 단계(S1000); 상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 단계(S1200);를 포함한다.

Description

급성뇌경색 발생시점 추정시스템, 방법 및 프로그램
본 발명은 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램에 관한 것으로, 보다 자세하게는 자기공명영상을 이용하여 급성뇌경색이 발생한 시점이 확인되지 않은 환자의 급성뇌경색 발생 후 경과시간을 추정하는 시스템, 방법 및 프로그램에 관한 것이다.
혈전 또는 색전 등으로 인해 막힌 뇌혈관의 개통을 도와 뇌세포의 손상을 막는 혈전용해술은, 급성뇌경색 환자를 치료하기 위한 방법으로 널리 알려져 있다. 혈전용해술은 뇌 세포가 손상되기 이전에 신속히 이루어져야 하므로 뇌경색 발생 시점으로부터 빠른 시간 내에 시행하여햐 한다.
그러나, 급성뇌경색의 발생시점이 확인되지 않은 상태로 병원으로 오는 환자가 대다수이다. 즉, 쓰러진 후 타인에 의해 발견되어 병원으로 이송되므로, 타인에게 발견되기 얼마 전에 급성뇌경색이 발생되었는지 확인할 수 없다. 이러한 경우에 혈전용해술을 시행할 수 있는 환자인지 여부를 의료영상(즉, MR영상) 판독만으로 판단할 수 있는 전문의는 부족한 실정이다. 또한, 급성뇌경색 환자들이 응급으로 내원하게 되는 응급실에는 경험이 부족한 의료진들이 근무하고 있는 경우가 많다.
따라서, 안전하고 신속하게 의료진이 급성뇌경색 환자의 치료가능 여부를 판단할 수 있도록 정보를 제공해주는 발명이 필요하다.
본 발명은 급성뇌경색 환자의 자기공명영상(Magnetic Resonacne Image, 이하 MRI) 중 확산강조영상 및 액체감쇠역전회복영상의 특성을 이용하여 경색영역을 자동으로 분석하고, 경색영역 내의 특징정보를 기반으로 급성뇌경색 발생 후 경과시간을 추정하여, 급성뇌경색 환자의 치료가능 여부를 신속하게 판단할 수 있도록 의료진에게 정보를 제공하는, 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램을 제공하고자 한다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정방법은, 컴퓨터가 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상 및 제2영상을 수신하되, 상기 제1영상은 액체감쇠역전회복영상이고, 상기 제2영상은 확산강조영상인, 영상수신단계; 상기 제2영상에서 경색영역이미지를 추출하는 단계; 상기 제1영상에 상기 제2영상을 정합하여, 제1영상 내 경색영역을 설정하는 단계; 상기 제1영상의 경색영역 내에서 특징정보를 추출하는 단계; 상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 단계;를 포함한다.
상기와 같은 본 발명에 따르면, 급성뇌경색으로 언제 쓰러졌는지 확인되지 않는 환자의 급성뇌경색 발생시점을 추정할 수 있다. 이를 통해, 혈전용해술을 통한 치료 가능여부를 판단하지 못함에 따라 혈전용해술 시행 시기를 놓쳐버리는 환자를 줄일 수 있다.
또한, 컴퓨터가 액체감쇠역전회복영상와 확산강조영상을 기반으로 자동으로 경과시간 산출을 신속하게 수행하므로, 환자의 급성뇌경색 발생 후 경과시간을 빠르게 파악하여 바로 치료 수행 여부를 결정할 수 있다. 따라서, MR영상 판독을 통해 혈전용해술 시행여부를 판단할 수 있는 의료진이 MR영상을 판독하여 결정하는데 소요되는 시간을 줄여서, 급성뇌경색 치료가 가능한 환자 비율을 높일 수 있다.
도 1은 본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정방법의 순서도이다.
도 2는 본 발명의 일실시예에 따라 제1영상 및 제2영상에 급성뇌경색 발생시점 추정방법을 적용하는 과정을 도시한 예시도면이다.
도 3는 본 발명의 일실시예에 따른 경색영역이미지 추출과정의 순서도이다.
도 4는 본 발명의 일실시예에 따른 기준데이터 생성단계를 더 포함하는 급성뇌경색 발생시점 추정방법의 순서도이다.
도 5는 본 발명의 일실시예에 따른 서포트벡터머신 형태의 기준데이터를 생성하는 과정을 나타낸 순서도이다.
도 6은 본 발명의 일실시예에 따른 제1영상의 상대적 신호량 추출단계를 더 포함하는 급성뇌경색 발생시점 추정방법의 순서도이다.
도 7은 본 발명의 일실시예에 따른 제1영상에 대한 비율맵 생성단계를 더 포함하는 급성뇌경색 발생시점 추정방법의 순서도이다.
도 8은 본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정시스템의 구성도이다.
도 9는 본 발명의 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템의 구성도이다.
도 10은 본 발명의 또 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템의 구성도이다.
본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정방법은, 컴퓨터가 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상 및 제2영상을 수신하되, 상기 제1영상은 액체감쇠역전회복영상이고, 상기 제2영상은 확산강조영상인, 영상수신단계; 상기 제2영상에서 경색영역이미지를 추출하는 단계; 상기 제1영상에 상기 제2영상을 정합하여, 제1영상 내 경색영역을 설정하는 단계; 상기 제1영상의 경색영역 내에서 특징정보를 추출하는 단계; 상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 단계;를 포함한다.
또한, 상기 기준데이터는, 하나 이상의 제2환자에 대한 제1영상 내 경색영역에 포함된 특징정보 및 급성뇌경색 발생시점으로부터 경과시간을 포함하며, 상기 제2환자는 급성뇌경색 발생시점이 확인된 환자일 수 있다.
또한, 상기 경색영역이미지추출단계는, 상기 제2영상의 겉보기확산계수 지도의 강도를 표준화하는 단계; 및 표준화된 겉보기확산계수 지도 내에서 절대기준치 탐색을 통해 경색영역을 추출하는 단계;를 포함할 수 있다.
또한, 상기 경색영역을 상기 제1환자의 뇌에서 상기 경색영역에 대칭되는 위치인 대칭영역과 비교하여, 상기 경색영역의 상대적 신호량을 추출하는 단계;를 더 포함할 수 있다.
또한, 상기 대칭영역과 상기 경색영역의 상대적 신호량을 시각적으로 표현한 비율맵을 생성하는 단계;를 더 포함할 수 있다.
또한, 상기 특징정보는, 상기 제1영상 내 경색영역에서 추출된 제1특징정보; 및 상기 제1영상에 대한 비율맵 내 경색영역에서 추출된 제2특징정보;를 포함할 수 있다.
또한, 상기 경과시간이 기준시간 이내인지 여부를 판단하여 알림하는 단계;를 더 포함할 수 있다.
또한, 상기 제1영상 내 경색영역 설정단계는, 상기 제1영상 및 상기 제2영상 내 골격 위치를 바탕으로, 상기 제1영상 또는 상기 제2영상에 확대/축소, 대칭이동 또는 회전을 적용하여 정합을 수행하는 것을 특징으로 할 수 있다.
또한, 상기 특징정보 추출단계는, 상기 경색영역의 신호강도 및 변화도에 대해, Gray Level Cooccurrence Matrix, Run-Length Matrix, Local Binary Pattern 중 적어도 하나 이상을 적용하여 특징정보를 추출하는 것을 특징으로 할 수 있다.
또한, 복수의 제2환자의 제1영상 및 제2영상을 기반으로, 기준데이터를 서포트벡터머신으로 생성하는 단계;를 더 포함하되, 상기 기준데이터 생성단계는, 복수의 제2환자를 훈련그룹, 검증그룹 및 테스트그룹으로 분류하는 단계; 상기 훈련그룹에 포함된 제2환자의 제1영상과 제2영상의 정합을 통해, 상기 제2환자의 제1영상으로부터 제2환자의 특징정보를 추출하는 단계; 상기 제2환자의 특징정보를 통해 서포트벡터머신을 학습시키는 단계; 상기 검증그룹을 서포트벡터머신 형태를 결정하는 단계; 및 상기 테스트그룹을 결정된 서포트벡터머신에 적용하여 기준데이터로 설정여부를 판단하는 단계;를 포함할 수 있다.
또한, 상기 기준데이터는 상기 제2환자의 성별정보 또는 연령정보에 따라 세부그룹으로 분류되는 것을 특징으로 하며, 상기 경과시간 산출단계는, 상기 제1환자의 연령정보 또는 성별정보를 기반으로, 상기 제1환자의 특징정보와 비교되는 세부그룹을 설정하는 것을 특징으로 할 수 있다.
본 발명의 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템은, 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상 및 제2영상을 저장하는 영상저장모듈; 상기 제2영상에서 경색영역이미지를 추출하는 경색영역이미지추출모듈; 상기 제1영상에 상기 제2영상을 정합하는 영상정합모듈; 상기 제2영상이 정합된 상기 제1영상 내에서 경색영역을 설정하는 경색영역설정모듈; 상기 제1영상의 경색영역 내에서 특징정보를 추출하는 특징정보추출모듈; 및 상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 경과시간산출모듈;을 포함하되, 상기 제1영상은 액체감쇠역전회복영상이고, 상기 제2영상은 확산강조영상이다.
또한, 상기 기준데이터는, 하나 이상의 제2환자에 대한 제1영상 내 경색영역에 포함된 특징정보 및 급성뇌경색 발생시점으로부터 경과시간을 포함하며, 상기 제2환자는 급성뇌경색 발생시점이 확인된 환자이다.
또한, 복수의 제2환자의 제1영상 및 제2영상을 기반으로, 기준데이터를 서포트벡터머신으로 생성하는 기준데이터생성모듈;을 더 포함하고, 상기 기준데이터생성모듈은, 복수의 제2환자를 훈련그룹, 검증그룹 및 테스트그룹으로 분류하고, 상기 훈련그룹에 포함된 제2환자의 제1영상과 제2영상의 정합을 통해, 상기 제2환자의 제1영상으로부터 제2환자의 특징정보를 추출하고, 상기 제2환자의 특징정보를 통해 서포트벡터머신 학습을 수행하고, 상기 검증그룹을 서포트벡터머신 형태를 결정하고, 상기 테스트그룹을 결정된 서포트벡터머신에 적용하여 기준데이터로 설정여부를 판단하는 것을 특징으로 할 수 있다.
또한, 상기 경색영역을 상기 제1환자의 뇌에서 상기 경색영역에 대칭되는 위치인 대칭영역과 비교하여, 상기 경색영역의 상대적 신호량을 추출하고, 상기 대칭영역과 상기 경색영역의 상대적 신호량을 시각적으로 표현한 비율맵을 생성하는 비율맵생성모듈;을 더 포함하고, 상기 특징정보는 상기 제1영상 내 경색영역에서 추출된 제1특징정보; 및 상기 제1영상에 대한 비율맵 내 경색영역에서 추출된 제2특징정보;를 포함할 수 있다.
본 발명의 다른 일실시예에 따른 발생시점 추정프로그램은, 하드웨어와 결합되어 상기 언급된 급성뇌경색 발생시점 추정방법을 실행하며, 매체에 저장된다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
본 명세서에서, '제1영상(10)'은 액체감쇠역전회복영상(Fluid Attenuated Inversion Recovery, 이하 FLAIR)이다.
본 명세서에서 '제2영상(20)'은 확산강조영상(Diffusion Weighted Imaging, 이하 DWI)이다.
본 명세서에서 '제1환자'는 급성뇌경색 발생시점이 확인되지 않은 환자이다. 즉, '제1환자'는 컴퓨터가 급성뇌경색 발생시점을 파악하여야 하는 환자이다. 반면, 본 명세서에서 '제2환자'는 급성뇌경색 발생시점이 확인된 환자이다.
본 명세서에서 컴퓨터는 연산처리를 수행하여 사용자에게 결과를 시각적으로 제시할 수 있는 다양한 장치들이 모두 포함된다. 예를 들어, 컴퓨터는 데스크 탑 PC, 노트북(Note Book) 뿐만 아니라 스마트폰(Smart phone), 태블릿 PC, 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone; Personal Communication Service phone), 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000)의 이동 단말기, 팜 PC(Palm Personal Computer), 개인용 디지털 보조기(PDA; Personal Digital Assistant) 등도 해당될 수 있다. 또한, 컴퓨터는 혈관조영영상을 획득하거나 관찰하는 의료장비도 해당될 수 있다.
이하, 도면을 참조하여, 본 발명의 실시예들에 따른 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램에 대해 상세히 기술한다.
도 1은 본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정방법의 순서도이다.
도 2는 본 발명의 일실시예에 따라 제1영상 및 제2영상에 급성뇌경색 발생시점 추정방법을 적용하는 과정을 도시한 예시도면이다.
도 1을 참조하면, 본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정방법은, 컴퓨터가 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상(10) 및 제2영상(20)을 획득하는 단계(S200; 영상수신단계); 상기 제2영상(20)에서 경색영역이미지를 추출하는 단계(S400); 상기 제1영상(10)에 상기 제2영상(20)을 정합하여, 제1영상(10) 내 경색영역을 설정하는 단계(S600); 상기 제1영상(10)의 경색영역 내에서 특징정보를 추출하는 단계(S1000); 상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 단계(S1200);를 포함한다. 이하, 각 단계에 대한 상세한 설명을 기재한다.
확산강조영상은 급성뇌경색 발생 후 짧은 시간 이내에 급성뇌경색 영역이 표시되어 즉시 급성뇌경색 범위를 확인할 수 있다. 반면, 액체감쇠역전회복영상은 급성뇌경색 발생시점 이후에 시간이 경과되면서 급성뇌경색 범위가 서서히 짙게 표시되게 된다. 즉, 액체감쇠역전회복영상(즉, FLAIR영상)은 급성뇌경색 발생시점으로 경과시간에 따라 급성뇌경색의 경색영역의 표현 정도에 차이가 발생하게 된다. 따라서, DWI영상과 FLAIR영상의 불일치를 기반으로 급성뇌경색 경과시점을 파악하고자 한다.
컴퓨터가 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상(10) 및 제2영상(20)을 수신한다(S200; 영상수신단계). 컴퓨터는 자기공명영상(Magnetic Resonance Imaging; MRI) 촬영장치로부터 촬영된 의료영상데이터를 직접 수신할 수 있고, 컴퓨터 또는 외부서버에 저장된 의료영상데이터를 로드하여 입력할 수 있다. 예를 들어, 응급실에서 급성뇌경색으로 내원한 환자의 급성뇌경색 발생 후 경과시간을 파악하여 치료계획을 긴급하게 세우고자 하는 경우, 컴퓨터는 자기공명영상(Magnetic Resonance Imaging; MRI) 촬영장치로부터 환자에 대한 MR영상 촬영 후 바로 수신할 수 있다.
컴퓨터가 상기 제2영상(20)에서 경색영역이미지를 추출한다(S400). 즉, 컴퓨터는 제2영상(20)(즉, DWI) 내에서 경색영역의 경계를 파악하여, 경색영역이미지를 추출한다. 일실시예로, 도 3에서와 같이, 상기 경색영역이미지추출단계(S400)는, 상기 제2영상(20)의 겉보기확산계수 지도의 강도를 표준화하는 단계(S410); 및 표준화된 겉보기확산계수 지도 내에서 절대기준치 탐색을 통해 경색영역을 추출하는 단계(S420);를 포함한다. 컴퓨터는 겉보기확산계수영상(apparent diffusion coefficient, 이하 ADC) 지도에서 경색영역이 어둡게 나타나기 때문에 특정 임계값 이하의 어두운 화소를 경색영역으로 탐색한다. 컴퓨터는, 개인별 ADC 영상 지도 자체의 밝기 분포에 편차가 있으므로, ADC영상 지도 내의 신호 강도를 표준화하는 과정을 수행한다. 그 후, 컴퓨터는 표준화된 ADC영상 지도에서 경색영역의 기준이 될 임계값을 절대치로 설정한다.
컴퓨터가 제1영상(10)에 제2영상(20)을 정합하여, 제1영상(10) 내 경색영역을 설정한다(S600). 먼저, 컴퓨터는 제1영상(10)에 제2영상(20)을 정합한다. 일실시예로, 컴퓨터는 제1영상(10) 및 제2영상(20) 내 골격 위치를 바탕으로 정합을 수행한다. 동일한 환자의 두개골 구조는 MR영상을 촬영하는 방식에 차이가 있더라도 동일하므로, 컴퓨터는 제1영상(10)과 제2영상(20)의 골격 위치 또는 구조를 기반으로 정합을 수행한다. 컴퓨터는 제1영상(10) 또는 제2영상(20)에 확대/축소, 대칭이동 또는 회전을 적용하여 정합을 수행한다. 제1영상(10) 또는 제2영상(20) 촬영 시의 환자 자세에 변화가 있는 경우에 제1영상(10)과 제2영상(20) 내의 뇌형상에 차이가 있으므로, 컴퓨터가 제1영상(10) 또는 제2영상(20)에 확대/축소, 대칭이동 또는 회전을 적용하여 정합한다.
그 후, 컴퓨터는 제2영상(20) 내의 경색영역을 기반으로 제1영상(10) 내 경색영역을 설정한다. 즉, 급성뇌경색 환자의 경색영역이 짧은 시간 내에 표시되는 확산강조영상 내 경색영역 경계를 액체감쇠역전회복영상(즉, FLAIR영상)에 동일하게 표시하여 액체감쇠역전회복영상 내 경색영역을 설정한다.
컴퓨터가 제1영상(10)의 경색영역 내에서 특징정보를 추출한다(S1000). 상기 특징정보는 영상데이터(즉, MR영상)의 특정영역 내에서 추출되는 하나 이상의 특징요소이다. 일실시예로, 상기 특징정보 추출단계(S1000)는, 상기 경색영역의 신호강도 및 변화도에 대해, Gray Level Cooccurrence Matrix(GLCM), Run-Length Matrix(특히, Gray Level Run-Length Matrix(GLRLM)), Local Binary Pattern(LBP) 중 적어도 하나 이상을 적용하여 특징정보를 추출한다.
구체적으로, 특징정보는 제2영상(20) 내 경색영역에서 획득될 수 있는 다양한 정보를 포함한다. 일실시예로, 특징정보는 경색영역의 크기 또는 부피정보를 포함한다. 또한, 다른 일실시예로, 특징정보는 경색영역 내의 신호강도(Intensity), 신호변화도(Gradient), LBP(Local Binary Pattern) map 각각에 대하여 산출된 평균(mean), 표준편차(standard deviation), 비대칭도(skewness), 첨도(kurtosis)를 포함한다. 또한, 다른 일실시예로, 상기 특징정보는 Gray Level Cooccurrence Matrix 또는 Run-Length Matrix를 적용하여 획득된 다양한 특징요소를 포함한다. 예를 들어, 컴퓨터가, Gray Level Cooccurrence Matrix 또는 Run-Length Matrix를 적용 시, [표 1]에서와 같은 특징요소의 전부 또는 일부를 획득하여 특징정보로 활용한다.
추출 방식 사용가능한 특징요소
GLCM energy, entropy, dissimilarity, contrast, inverse difference, correlation, homogeneity, autocorrelation, cluster shade, cluster prominence, maximum probability, sum of squares, sum average, sum variance, sum entropy, difference variance, difference entropy, information of correlation1 (IOC1), information of correlation2 (IOC2), inverse difference normalized (INN), inverse difference moment normalized (IDN)
GLRLM short run emphasis (SRE), long run emphasis (LRE), gray-level nonuniformity (GLN), run-length nonuniformity (RLN), run percentage (RP), low gray run emphasis (LGRE), high gray run emphasis (HGRE), short run low gray emphasis (SRLGE),short run high gray emphasis (SRHGE), long run low gray emphasis (LRLGE),long run high gray emphasis (LRHGE)
그 후, 컴퓨터가 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출한다(S1200). 즉, 컴퓨터는 제1영상(10)(즉, FLAIR영상) 내에서 제2영상(20)(즉, DWI)에 의해 파악된 경색영역 내의 특징정보를 기반으로 제1환자의 급성뇌경색 발생 후 경과시간을 산출한다. 예를 들어, 상기 경색영역 내 특징정보는 FLAIR영상 내에서 경색영역이 표현되는 정도에 대한 정보 또는 경색영역 내에 나타난 이미지 형태에 대한 정보를 포함할 수 있다. 상기 기준데이터는, 하나 이상의 제2환자에 대한 제1영상(10) 내 경색영역에 포함된 특징정보 및 급성뇌경색 발생시점으로부터 경과시간을 포함한다. 컴퓨터는 제1환자의 특징정보가 대응되는 제2환자의 특징정보를 기준데이터 내에서 탐색하고, 해당 제2환자의 급성뇌경색 발생 후 경과시간을 제1환자의 경과시간으로 결정한다. 일실시예로, 컴퓨터는, 후술하는 바와 같이, 기준데이터를 서포트벡터머신(Support Vector Machine; 이하 SVM)로 생성하고, 급성뇌경색 발생시점 확인이 필요한 제1환자의 특징정보를 SVM에 적용하여 급성뇌경색 발생 후 경과시간을 산출한다.
또한, 본 발명의 다른 일실시예는, 상기 경과시간이 기준시간 이내인지 여부를 판단하여 알림하는 단계(S1300);를 더 포함한다. 급성뇌경색 치료 수행은 특정한 기준시간을 도과하였는지 여부에 따라 달라질 수 있다. 따라서, 의료진에게 급성뇌경색이 발생한 후 특정시간(예를 들어, 4.5시간 또는 6시간)이 도과되었는지 여부를 빨리 알려주어서 치료계획을 신속하게 세우도록 안내할 필요가 있다. 급성 뇌경색 환자는 발생시점(On-set)으로부터의 경과시간에 따라 치료 옵션이 달라진다. 급성 뇌경색이 발생한 지 4.5시간 전까지는 정맥 내 재조합 조직 플라스미노겐 활성제(Intravenous recombinant tissue plasminogen activator; rt-PA)를 이용한 치료가 가능하고, 급성 뇌경색 발생 후 6시간까지는 동맥 내 기계적 혈전 절제술(intra-arterial mechanical thrombectomy)이 효과가 있다. 따라서, 의료진이 신속하게 치료방식을 결정하여 치료를 진행할 수 있도록, 컴퓨터는 제1환자에 대해 산출된 급성뇌경색 발생 후 경과시간을 바탕으로 기준시간 도과여부를 판단하여 알림한다.
또한, 본 발명의 다른 일실시예는, 도 4에서와 같이, 복수의 제2환자의 제1영상(10) 및 제2영상(20)을 기반으로, 서포트벡터머신 형태의 기준데이터를 생성하는 단계(S100);를 더 포함한다. 즉, 컴퓨터는 빅데이터로 구축된 복수의 제2환자에 대한 특징정보를 기반으로 머신러닝(Machine Learning)을 수행하기 위한 서포트벡터머신(Support Vector Machine; 이하 SVM)을 생성한다. 상기 제2환자에 대한 특징정보는 제1환자에 대한 특징정보를 획득하는 방식과 동일하게 수행된다. 즉, 컴퓨터가 각각의 제2환자에 대한 제1영상(10) 및 제2영상(20)을 정합하고, 제2영상(20)에서 파악되는 경색영역을 제1영상(10)에 적용하여 경색영역을 설정한 후, 경색영역 내에서 특징정보를 추출한다.
일실시예로, 상기 기준데이터 생성단계(S100)는, 도 5에서와 같이, 복수의 제2환자를 훈련그룹, 검증그룹 및 테스트그룹으로 분류하는 단계(S110); 상기 훈련그룹에 포함된 제2환자의 제1영상(10)과 제2영상(20)의 정합을 통해, 상기 제2환자의 제1영상(10)으로부터 제2환자의 특징정보를 추출하는 단계(S120); 상기 제2환자의 특징정보를 통해 서포트벡터머신을 학습시키는 단계(S130); 상기 검증그룹을 서포트벡터머신 형태를 결정하는 단계(S140); 및 상기 테스트그룹을 결정된 서포트벡터머신에 적용하여 기준데이터로 설정여부를 판단하는 단계(S150);를 포함한다. 즉, SVM을 생성하기 위해 학습을 수행한 제2환자의 특징정보를 SVM 선택 및 검증에 사용하면 SVM 적절성 검토가 제대로 수행되지 못하므로, 컴퓨터는 복수의 제2환자를 훈련그룹(예를 들어, 전체 제2환자의 60%), 검증그룹(예를 들어, 전체 제2환자의 20%) 및 테스트그룹(예를 들어, 전체 제2환자의 20%)으로 분류한 후, 훈련그룹을 통한 학습으로 산출된 SVM을 검증그룹 내 제2환자 특징정보를 적용하여 선택하고, 테스트그룹 내에 포함된 제2환자의 특징정보를 적용하여 최적의 SVM에 해당하는지 평가를 수행한다.
또한, 본 발명의 또 다른 일실시예로, 상기 기준데이터는 상기 제2환자의 성별정보 또는 연령정보에 따라 세부그룹으로 분류된다. 환자의 성별 또는 연령에 따라 급성뇌경색이 발생한 후에 시간 경과에 따른 상태 변화에 차이가 있다. 따라서, 제1환자의 연령 및 성별에 부합하는 경과시간을 산출하기 위해, 복수의 제2환자를 성별 또는 연령에 따라 복수의 세부그룹으로 나누고, 각 세부그룹에 대한 경과시간 산출을 위한 데이터를 생성한다. 예를 들어, 컴퓨터는 제2환자의 세부그룹 별로 SVM을 각각 생성할 수 있다. 이 때, 상기 경과시간 산출단계(S1200)는, 상기 제1환자의 연령정보 또는 성별정보를 기반으로, 상기 제1환자의 특징정보와 비교되는 세부그룹을 설정한다.
또한, 도 6에서와 같이, 본 발명의 또 다른 일실시예는, 상기 경색영역을 상기 제1환자의 뇌에서 상기 경색영역에 대칭되는 위치인 대칭영역과 비교하여, 상기 경색영역의 상대적 신호량을 추출하는 단계(S700);를 더 포함할 수 있다. MR영상은 촬영되는 하나의 영상 내의 상대적인 신호량으로 표현되므로, 경색영역의 신호량을 절대적인 신호량으로 적용할 수 없다. 따라서, 특정한 경계선을 기준으로 대칭적으로 이루어진 뇌의 특성을 이용하여, 컴퓨터는 제1영상(10) 내에서 경색영역에 대칭되는 위치인 대칭영역과 비교하여 경색영역의 상대적 신호량을 산출한다. 따라서, 제1영상(10) 내 경색영역에 대한 상대적 신호량이 산출됨에 따라, 제1환자의 제1영상(10) 내 경색영역에서 추출된 특징정보와 제2환자의 제1영상(10) 내 경색영역에서 추출된 특징정보를 비교 가능하다.
또한, 도 7에서와 같이, 본 발명의 또 다른 일실시예는, 상기 대칭영역과 상기 경색영역의 상대적 신호량을 시각적으로 표현한 비율맵(30)을 생성하는 단계(S800);를 더 포함한다.
또한, 다른 일실시예로, 컴퓨터가 제1영상(10)을 기반으로 비율맵(30)을 생성하는 경우, 상기 특징정보는, 상기 제1영상(10) 내 경색영역에서 추출된 제1특징정보; 및 상기 제1영상(10)에 대한 비율맵(30) 내 경색영역에서 추출된 제2특징정보;를 포함한다. 즉, 컴퓨터는 제1영상(10) 자체 및 제1영상(10)에 대한 비율맵(30)에서 추출된 하나 이상의 특징요소를 특징정보로 활용한다.
도 8은 본 발명의 일실시예에 따른 급성뇌경색 발생시점 추정시스템의 구성도이다.
본 발명의 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템은 하나 이상의 컴퓨터로 구성되어 급성뇌경색 발생시점을 추정 또는 산출한다. 도 8을 참조하면, 본 발명의 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템은, 영상저장모듈(100); 경색영역이미지추출모듈(200); 영상정합모듈(300); 경색영역설정모듈(400); 특징정보추출모듈(500); 및 경과시간산출모듈(600);을 포함한다.
영상저장모듈(100)은 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상(10) 및 제2영상(20)을 저장한다. 즉, 영상저장모듈(100)은 MR영상촬영장치로부터 제1환자의 제1영상(10) 및 제2영상(20)을 수신하여 저장한다.
영상저장모듈(100)은 컴퓨터 내에 존재하는 메모리가 해당될 수 있다. 메모리는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함한다.
경색영역이미지추출모듈(200)은 제2영상(20)에서 경색영역이미지를 추출하는역할을 수행한다. 즉, 경색영역이미지추출모듈(200)은 제2영상(20)(즉, DWI) 내에서 경색영역의 경계를 파악하여, 경색영역이미지를 추출한다.
영상정합모듈(300)은 제1영상(10)에 제2영상(20)을 정합하는 역할을 수행한다. 일실시예로, 영상정합모듈(300)은 제1영상(10) 및 제2영상(20) 내에 골격 또는 뇌형태를 기반으로 정합을 수행한다.
경색영역설정모듈(400)은 제2영상(20)이 정합된 상기 제1영상(10) 내에서 경색영역을 설정하는 역할을 수행한다. 즉, 경색영역설정모듈(400)은 급성뇌경색 환자의 경색영역이 짧은 시간 내에 표시되는 확산강조영상(즉, DWI) 내 경색영역 경계를 액체감쇠역전회복영상(즉, FLAIR영상)에 동일하게 표시하여 액체감쇠역전회복영상 내 경색영역을 설정한다.
특징정보추출모듈(500)는 제1영상(10)의 경색영역 내에서 특징정보를 추출하는 역할을 수행한다. 상기 특징정보는 영상데이터(즉, MR영상)의 특정영역 내에서 추출되는 하나 이상의 특징요소이다. 일실시예로, 상기 특징정보추출모듈(500)은, 상기 경색영역의 신호강도 및 변화도에 대해, Gray Level Cooccurrence Matrix(GLCM), Run-Length Matrix(특히, Gray Level Run-Length Matrix(GLRLM)), Local Binary Pattern(LBP) 중 적어도 하나 이상을 적용하여 특징정보를 추출한다.
경과시간산출모듈(600)은 상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출한다. 즉, 경과시간산출모듈(600)은 제1영상(10)(즉, FLAIR영상) 내에서 제2영상(20)(즉, DWI)의 경색영역 내 특징정보를 기반으로 제1환자의 급성뇌경색 발생 후 경과시간을 산출한다.
경색영역이미지추출모듈(200), 영상정합모듈(300), 경색영역설정모듈(400), 특징정보추출모듈(500) 및 경과시간산출모듈(600)은 특정한 컴퓨터 내의 하드웨어인 프로세서에 소프트웨어적으로 포함된다.
또한, 도 9에서와 같이, 본 발명의 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템은, 기준데이터생성모듈(700);을 더 포함한다. 기준데이터생성모듈(700)은 복수의 제2환자의 제1영상(10) 및 제2영상(20)을 기반으로, 기준데이터를 서포트벡터머신으로 생성하는 역할을 수행한다. 일실시예로, 상기 기준데이터생성모듈(700)은, 복수의 제2환자를 훈련그룹, 검증그룹 및 테스트그룹으로 분류하고, 상기 훈련그룹에 포함된 제2환자의 제1영상(10)과 제2영상(20)의 정합을 통해, 상기 제2환자의 제1영상(10)으로부터 제2환자의 특징정보를 추출하고, 상기 제2환자의 특징정보를 통해 서포트벡터머신 학습을 수행하고, 상기 검증그룹을 서포트벡터머신 형태를 결정하고, 상기 테스트그룹을 결정된 서포트벡터머신에 적용하여 기준데이터로 설정여부를 판단한다.
또한, 도 10에서와 같이, 본 발명의 다른 일실시예에 따른 급성뇌경색 발생시점 추정시스템은, 비율맵생성모듈(800);을 더 포함한다. 비율맵생성모듈(800)은 상기 경색영역을 상기 제1환자의 뇌에서 상기 경색영역에 대칭되는 위치인 대칭영역과 비교하여, 상기 경색영역의 상대적 신호량을 추출하고, 상기 대칭영역과 상기 경색영역의 상대적 신호량을 시각적으로 표현한 비율맵(30)을 생성하는 역할을 수행한다. MR영상은 촬영되는 하나의 영상 내의 상대적인 신호량으로 표현되므로, 경색영역의 신호량을 절대적인 신호량으로 적용할 수 없다. 따라서, 특정한 경계선을 기준으로 대칭적으로 이루어진 뇌의 특성을 이용하여, 비율맵생성모듈(800)은 제1영상(10) 내에서 경색영역에 대칭되는 위치인 대칭영역과 비교하여 경색영역의 상대적 신호량을 산출한다. 따라서, 제1영상(10) 내 경색영역에 대한 상대적 신호량이 산출됨에 따라, 제1환자의 제1영상(10) 내 경색영역에서 추출된 특징정보와 제2환자의 제1영상(10) 내 경색영역에서 추출된 특징정보를 비교 가능하다. 이 때, 상기 특징정보는 상기 제1영상(10) 내 경색영역에서 추출된 제1특징정보; 및 상기 제1영상(10)에 대한 비율맵(30) 내 경색영역에서 추출된 제2특징정보;를 포함할 수 있다.
이상에서 전술한 본 발명의 일 실시예에 따른 급성뇌경색 발생시점 추정방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.
상기와 같은 본 발명에 따르면, 급성뇌경색으로 언제 쓰러졌는지 확인되지 않는 환자의 급성뇌경색 발생시점을 추정할 수 있다. 이를 통해, 혈전용해술을 통한 치료 가능여부를 판단하지 못함에 따라 혈전용해술 시행 시기를 놓쳐버리는 환자를 줄일 수 있다.
또한, 컴퓨터가 액체감쇠역전회복영상와 확산강조영상을 기반으로 자동으로 경과시간 산출을 신속하게 수행하므로, 환자의 급성뇌경색 발생 후 경과시간을 빠르게 파악하여 바로 치료 수행 여부를 결정할 수 있다. 따라서, MR영상 판독을 통해 혈전용해술 시행여부를 판단할 수 있는 의료진이 MR영상을 판독하여 결정하는데 소요되는 시간을 줄여서, 급성뇌경색 치료가 가능한 환자 비율을 높일 수 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.

Claims (16)

  1. 컴퓨터가 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상 및 제2영상을 수신하되, 상기 제1영상은 액체감쇠역전회복영상이고, 상기 제2영상은 확산강조영상인, 영상수신단계;
    상기 제2영상에서 경색영역이미지를 추출하는 단계;
    상기 제1영상에 상기 제2영상을 정합하여, 제1영상 내 경색영역을 설정하는 단계;
    상기 제1영상의 경색영역 내에서 특징정보를 추출하는 단계;
    상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 단계;를 포함하는, 급성뇌경색 발생시점 추정방법.
  2. 제1항에 있어서,
    상기 기준데이터는,
    하나 이상의 제2환자에 대한 제1영상 내 경색영역에 포함된 특징정보 및 급성뇌경색 발생시점으로부터 경과시간을 포함하며,
    상기 제2환자는 급성뇌경색 발생시점이 확인된 환자인, 급성뇌경색 발생시점 추정방법.
  3. 제1항에 있어서,
    상기 경색영역이미지추출단계는,
    상기 제2영상의 겉보기확산계수 지도의 강도를 표준화하는 단계; 및
    표준화된 겉보기확산계수 지도 내에서 절대기준치 탐색을 통해 경색영역을 추출하는 단계;를 포함하는, 급성뇌경색 발생시점 추정방법.
  4. 제1항에 있어서,
    상기 경색영역을 상기 제1환자의 뇌에서 상기 경색영역에 대칭되는 위치인 대칭영역과 비교하여, 상기 경색영역의 상대적 신호량을 추출하는 단계;를 더 포함하는, 급성뇌경색 발생시점 추정방법.
  5. 제4항에 있어서,
    상기 대칭영역과 상기 경색영역의 상대적 신호량을 시각적으로 표현한 비율맵을 생성하는 단계;를 더 포함하는, 급성뇌경색 발생시점 추정방법.
  6. 제5항에 있어서,
    상기 특징정보는,
    상기 제1영상 내 경색영역에서 추출된 제1특징정보; 및
    상기 제1영상에 대한 비율맵 내 경색영역에서 추출된 제2특징정보;를 포함하는, 급성뇌경색 발생시점 추정방법.
  7. 제1항에 있어서,
    상기 경과시간이 기준시간 이내인지 여부를 판단하여 알림하는 단계;를 더 포함하는, 급성뇌경색 발생시점 추정방법.
  8. 제1항에 있어서,
    상기 제1영상 내 경색영역 설정단계는,
    상기 제1영상 및 상기 제2영상 내 골격 위치를 바탕으로, 상기 제1영상 또는 상기 제2영상에 확대/축소, 대칭이동 또는 회전을 적용하여 정합을 수행하는 것을 특징으로 하는, 급성뇌경색 발생시점 추정방법.
  9. 제1항에 있어서,
    상기 특징정보 추출단계는,
    상기 경색영역의 신호강도 및 변화도에 대해, Gray Level Cooccurrence Matrix, Run-Length Matrix, Local Binary Pattern 중 적어도 하나 이상을 적용하여 특징정보를 추출하는 것을 특징으로 하는, 급성뇌경색 발생시점 추정방법.
  10. 제2항에 있어서,
    복수의 제2환자의 제1영상 및 제2영상을 기반으로, 기준데이터를 서포트벡터머신으로 생성하는 단계;를 더 포함하되,
    상기 기준데이터 생성단계는,
    복수의 제2환자를 훈련그룹, 검증그룹 및 테스트그룹으로 분류하는 단계;
    상기 훈련그룹에 포함된 제2환자의 제1영상과 제2영상의 정합을 통해, 상기 제2환자의 제1영상으로부터 제2환자의 특징정보를 추출하는 단계;
    상기 제2환자의 특징정보를 통해 서포트벡터머신을 학습시키는 단계;
    상기 검증그룹을 서포트벡터머신 형태를 결정하는 단계; 및
    상기 테스트그룹을 결정된 서포트벡터머신에 적용하여 기준데이터로 설정여부를 판단하는 단계;를 포함하는, 급성뇌경색 발생시점 추정방법.
  11. 제2항에 있어서,
    상기 기준데이터는 상기 제2환자의 성별정보 또는 연령정보에 따라 세부그룹으로 분류되는 것을 특징으로 하며,
    상기 경과시간 산출단계는,
    상기 제1환자의 연령정보 또는 성별정보를 기반으로, 상기 제1환자의 특징정보와 비교되는 세부그룹을 설정하는 것을 특징으로 하는, 급성뇌경색 발생시점 추정방법.
  12. 급성뇌경색 발생시점이 확인되지 않은 특정한 제1환자에 대한 제1영상 및 제2영상을 저장하는 영상저장모듈;
    상기 제2영상에서 경색영역이미지를 추출하는 경색영역이미지추출모듈;
    상기 제1영상에 상기 제2영상을 정합하는 영상정합모듈;
    상기 제2영상이 정합된 상기 제1영상 내에서 경색영역을 설정하는 경색영역설정모듈;
    상기 제1영상의 경색영역 내에서 특징정보를 추출하는 특징정보추출모듈; 및
    상기 추출된 특징정보를 기준데이터와 비교하여 급성뇌경색 발생시점으로부터 경과시간을 산출하는 경과시간산출모듈;을 포함하되,
    상기 제1영상은 액체감쇠역전회복영상이고, 상기 제2영상은 확산강조영상인, 급성뇌경색 발생시점 추정시스템.
  13. 제12항에 있어서,
    상기 기준데이터는,
    하나 이상의 제2환자에 대한 제1영상 내 경색영역에 포함된 특징정보 및 급성뇌경색 발생시점으로부터 경과시간을 포함하며,
    상기 제2환자는 급성뇌경색 발생시점이 확인된 환자인, 급성뇌경색 발생시점 추정시스템.
  14. 제12항에 있어서,
    복수의 제2환자의 제1영상 및 제2영상을 기반으로, 기준데이터를 서포트벡터머신으로 생성하는 기준데이터생성모듈;을 더 포함하고,
    상기 기준데이터생성모듈은,
    복수의 제2환자를 훈련그룹, 검증그룹 및 테스트그룹으로 분류하고,
    상기 훈련그룹에 포함된 제2환자의 제1영상과 제2영상의 정합을 통해, 상기 제2환자의 제1영상으로부터 제2환자의 특징정보를 추출하고,
    상기 제2환자의 특징정보를 통해 서포트벡터머신 학습을 수행하고,
    상기 검증그룹을 서포트벡터머신 형태를 결정하고,
    상기 테스트그룹을 결정된 서포트벡터머신에 적용하여 기준데이터로 설정여부를 판단하는 것을 특징으로 하는, 급성뇌경색 발생시점 추정시스템.
  15. 제12항에 있어서,
    상기 경색영역을 상기 제1환자의 뇌에서 상기 경색영역에 대칭되는 위치인 대칭영역과 비교하여, 상기 경색영역의 상대적 신호량을 추출하고,
    상기 대칭영역과 상기 경색영역의 상대적 신호량을 시각적으로 표현한 비율맵을 생성하는 비율맵생성모듈;을 더 포함하고,
    상기 특징정보는,
    상기 제1영상 내 경색영역에서 추출된 제1특징정보; 및
    상기 제1영상에 대한 비율맵 내 경색영역에서 추출된 제2특징정보;를 포함하는, 급성뇌경색 발생시점 추정시스템.
  16. 하드웨어인 컴퓨터와 결합되어, 제1항 내지 제11항 중 어느 한 항의 방법을 실행시키기 위하여 매체에 저장된, 급성뇌경색 발생시점 추정프로그램.
PCT/KR2017/013073 2016-11-21 2017-11-17 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램 WO2018093189A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP17871182.6A EP3543952B1 (en) 2016-11-21 2017-11-17 System, method and program for estimating acute cerebral infarction onset time
US16/417,159 US11026620B2 (en) 2016-11-21 2019-05-20 System and method for estimating acute cerebral infarction onset time

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0154688 2016-11-21
KR1020160154688A KR101865110B1 (ko) 2016-11-21 2016-11-21 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/417,159 Continuation US11026620B2 (en) 2016-11-21 2019-05-20 System and method for estimating acute cerebral infarction onset time

Publications (1)

Publication Number Publication Date
WO2018093189A1 true WO2018093189A1 (ko) 2018-05-24

Family

ID=62146667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/013073 WO2018093189A1 (ko) 2016-11-21 2017-11-17 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램

Country Status (4)

Country Link
US (1) US11026620B2 (ko)
EP (1) EP3543952B1 (ko)
KR (1) KR101865110B1 (ko)
WO (1) WO2018093189A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024143889A1 (ko) * 2022-12-26 2024-07-04 주식회사 뉴냅스 급성 뇌경색 발생 시점 예측 장치, 방법, 시스템 및 프로그램

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10977811B2 (en) * 2017-12-20 2021-04-13 AI Analysis, Inc. Methods and systems that normalize images, generate quantitative enhancement maps, and generate synthetically enhanced images
CN108852308B (zh) * 2018-06-22 2021-03-30 苏州高新区人民医院 一种基于多参数影像技术优化检测体系的超时间窗ais临床再灌注方法
JP7129869B2 (ja) * 2018-10-01 2022-09-02 富士フイルム株式会社 疾患領域抽出装置、方法及びプログラム
WO2020262683A1 (ja) * 2019-06-28 2020-12-30 富士フイルム株式会社 医用画像処理装置、方法およびプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090326360A1 (en) * 2006-06-29 2009-12-31 Centre National De La Recherche Scientifique (Cnrs) Method for estimating the growth potential of cerebral infarcts
KR20150030974A (ko) * 2013-09-13 2015-03-23 재단법인 아산사회복지재단 뇌 영상에 기반한 경색 영역의 발생 시점의 추정 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1107693A4 (en) * 1998-08-24 2003-03-19 Univ Emory METHOD AND APPARATUS FOR PREDICTING THE APPEARANCE OF CRISES BASED ON CHARACTERISTICS DERIVED FROM SIGNALS INDICATING BRAIN ACTIVITY
ATE438337T1 (de) * 2000-02-02 2009-08-15 Gen Hospital Corp Verfahren zum auswerten neuer gehirnschlagsbehandlungen unter verwendung einer geweberisikokarte
US8724865B2 (en) * 2001-11-07 2014-05-13 Medical Metrics, Inc. Method, computer software, and system for tracking, stabilizing, and reporting motion between vertebrae
US7076473B2 (en) * 2002-04-19 2006-07-11 Mitsubishi Electric Research Labs, Inc. Classification with boosted dyadic kernel discriminants
US7529737B2 (en) * 2004-05-14 2009-05-05 Yin Aphinyanaphongs Content and quality assessment method and apparatus for biomedical information retrieval
US7548642B2 (en) * 2004-10-28 2009-06-16 Siemens Medical Solutions Usa, Inc. System and method for detection of ground glass objects and nodules
US20060201504A1 (en) * 2005-03-08 2006-09-14 Singhal Aneesh B High-flow oxygen delivery system and methods of use thereof
EP1952340B1 (en) * 2005-11-21 2012-10-24 Agency for Science, Technology and Research Superimposing brain atlas images and brain images with delineation of infarct and penumbra for stroke diagnosis
WO2008002275A1 (en) * 2006-06-28 2008-01-03 Agency For Science, Technology And Research Registering brain images by aligning reference ellipses
US20100221180A1 (en) * 2007-08-31 2010-09-02 Yanming Wang In vivo imaging of myelination
JP2011509141A (ja) * 2008-01-10 2011-03-24 エージェンシー フォー サイエンス,テクノロジー アンド リサーチ Mriスキャンデータにおける梗塞とアーティファクトとの識別
US20100014755A1 (en) * 2008-07-21 2010-01-21 Charles Lee Wilson System and method for grid-based image segmentation and matching
TWI578977B (zh) * 2011-04-07 2017-04-21 香港中文大學 視網膜圖像分析裝置
EP2912584B1 (en) * 2012-10-25 2020-10-07 Koninklijke Philips N.V. Combined use of clinical risk factors and molecular markers for thrombosis for clinical decision support
US20140146155A1 (en) * 2012-11-24 2014-05-29 Novarad Corporation Image Processing
WO2014127224A1 (en) * 2013-02-14 2014-08-21 The Research Foundation For The State University Of New York Method for adaptive computer-aided detection of pulmonary nodules in thoracic computed tomography images using hierarchical vector quantization and apparatus for same
US20150206069A1 (en) * 2014-01-17 2015-07-23 Matthew BEERS Machine learning-based patent quality metric
US20170140551A1 (en) * 2014-06-30 2017-05-18 Universität Bern Method for segmenting and predicting tissue regions in patients with acute cerebral ischemia
US9092691B1 (en) * 2014-07-18 2015-07-28 Median Technologies System for computing quantitative biomarkers of texture features in tomographic images
CN107530012B (zh) * 2015-02-16 2019-12-10 内森·英特拉托 用于脑活动解析的系统
US10593035B2 (en) * 2015-03-18 2020-03-17 University Of South Florida Image-based automated measurement model to predict pelvic organ prolapse
US20160335432A1 (en) * 2015-05-17 2016-11-17 Bitdefender IPR Management Ltd. Cascading Classifiers For Computer Security Applications
SG11201806045XA (en) * 2016-01-15 2018-08-30 Univ Of Toyama Mobilization of pluripotent stem cells for ischemic cerebral infarction
AU2017278992B2 (en) * 2016-06-07 2021-05-27 NeuroSteer Ltd. Systems and methods for analyzing brain activity and applications thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090326360A1 (en) * 2006-06-29 2009-12-31 Centre National De La Recherche Scientifique (Cnrs) Method for estimating the growth potential of cerebral infarcts
KR20150030974A (ko) * 2013-09-13 2015-03-23 재단법인 아산사회복지재단 뇌 영상에 기반한 경색 영역의 발생 시점의 추정 방법

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
HA, KWANG ET AL.: "MRI Quantification Analysis on Fall in Sick Times of the Cerebral Infarction Patients Using Object-centered Hierarchical Planning", THE KOREAN SOCIETY OF MEDICAL & BIOLOGICAL ENGINEERING. JOURNAL OF BIOMEDICAL ENGINEERING RESEARCH, vol. 24, no. 2, 2003, pages 61 - 68, XP009514976, Retrieved from the Internet <URL:http://www.nds1.kr/ndsl/search/detail/article/articleSearchResultDetail.do?cn=JAKO200311 921619545> *
PARK, BYUNG-RAE ET AL.: "An Inference Onset of the Cerebral Infarction Diseases Using MR Image", THE KOREAN SOCIETY OF MEDICAL & BIOLOGICAL ENGINEERING, PROCEEDINGS OF 1998 KOSOMBE FALL CONFERENCE, vol. 20, no. 2, 1988, pages 305 - 306, XP009514977, Retrieved from the Internet <URL:http://www.nds1.kr/ndsl/search/detail/article/articleSearchResultDetail.do?cn=N-PAP0797 1318> *
PARK, BYUNG-RAE; KOO, BONG-OH: "Implementation of Classification the Step in the Cerebral Infarction Using Neural Network in Magnetic Resonance Image", 2004 FALL CONFERENCE OF THE KOREAN SOCIETY OF MEDICAL INFORMATICS, PUSAN NATIONAL UNIVERSITY, GEUMJEONG-GU, BUSAN, 20 November 2014 (2014-11-20), pages 1 - 4, XP009514395 *
See also references of EP3543952A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024143889A1 (ko) * 2022-12-26 2024-07-04 주식회사 뉴냅스 급성 뇌경색 발생 시점 예측 장치, 방법, 시스템 및 프로그램

Also Published As

Publication number Publication date
KR20180056852A (ko) 2018-05-30
US11026620B2 (en) 2021-06-08
KR101865110B1 (ko) 2018-06-07
EP3543952A4 (en) 2020-01-08
US20190269359A1 (en) 2019-09-05
EP3543952B1 (en) 2021-03-24
EP3543952A1 (en) 2019-09-25

Similar Documents

Publication Publication Date Title
WO2018093189A1 (ko) 급성뇌경색 발생시점 추정시스템, 방법 및 프로그램
WO2017022908A1 (ko) 심층신경망을 이용한 골 연령 산출방법 및 프로그램
CN109816494B (zh) 一种课程推荐方法、装置、设备及存储介质
WO2019098415A1 (ko) 자궁경부암에 대한 피검체의 발병 여부를 판정하는 방법 및 이를 이용한 장치
CN112926537B (zh) 图像处理方法、装置、电子设备以及存储介质
CN112767586A (zh) 通行检测方法及装置、电子设备及计算机可读存储介质
WO2021040327A1 (ko) 심혈관 질환 위험 인자 예측 장치 및 방법
CN111241883A (zh) 防止远程被测人员作弊的方法和装置
WO2023229345A1 (en) System and method for detecting unhandled applications in contrastive siamese network training
CN112767585A (zh) 通行检测方法及装置、电子设备及计算机可读存储介质
WO2017217489A1 (en) Apparatuses and methods for co-reference resolution, information extraction and similar document retrieval
Lee et al. Image analysis using machine learning for automated detection of hemoglobin H inclusions in blood smears-a method for morphologic detection of rare cells
WO2021201582A1 (ko) 피부 병변의 원인 분석 방법 및 장치
WO2019164277A1 (ko) 수술영상을 이용한 출혈 평가 방법 및 장치
WO2024005542A1 (ko) 주름 검출을 통해 질환을 예측하는 방법 및 장치
WO2020101428A1 (ko) 병변 영역 검출 장치, 병변 영역 검출 방법 및 컴퓨터 프로그램
WO2015080328A1 (ko) 색채도형 심리 진단장치 및 방법
WO2020246676A1 (ko) 자궁경부암 자동 진단 시스템
WO2022191539A1 (ko) Turp 병리 이미지로부터 전립선암을 검출하기 위한 용도의 인공 뉴럴 네트워크를 학습하는 방법 및 이를 수행하는 컴퓨팅 시스템
WO2021096118A2 (ko) 구조화된 혈관 분지 정보에 기초한 의료 시술 히스토리 검색 방법
WO2021241830A1 (ko) 신장 기능 이상을 검출하는 심층 신경망 기반 망막 영상 분석 방법 및 장치
Sevcan et al. Development of fertility preparedness scale for women receiving fertility treatment
WO2024143889A1 (ko) 급성 뇌경색 발생 시점 예측 장치, 방법, 시스템 및 프로그램
CN114078271A (zh) 阈值确定方法、目标人员识别方法、装置、设备及介质
WO2024029697A1 (ko) 뇌질환 위험도를 예측하는 방법 및 뇌질환 위험도 분석 모델의 학습 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17871182

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017871182

Country of ref document: EP

Effective date: 20190621