WO2019039887A1 - Ct 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션 - Google Patents
Ct 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션 Download PDFInfo
- Publication number
- WO2019039887A1 WO2019039887A1 PCT/KR2018/009742 KR2018009742W WO2019039887A1 WO 2019039887 A1 WO2019039887 A1 WO 2019039887A1 KR 2018009742 W KR2018009742 W KR 2018009742W WO 2019039887 A1 WO2019039887 A1 WO 2019039887A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- image
- subject
- coronary artery
- model
- learned
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 231100001011 cardiovascular lesion Toxicity 0.000 title description 4
- 210000004351 coronary vessel Anatomy 0.000 claims abstract description 92
- 210000002216 heart Anatomy 0.000 claims abstract description 22
- 238000002608 intravascular ultrasound Methods 0.000 claims description 44
- 238000004497 NIR spectroscopy Methods 0.000 claims description 19
- 238000012360 testing method Methods 0.000 claims description 8
- 206010002383 Angina Pectoris Diseases 0.000 claims description 7
- 238000002591 computed tomography Methods 0.000 description 71
- 230000000747 cardiac effect Effects 0.000 description 25
- 210000004204 blood vessel Anatomy 0.000 description 14
- 238000010586 diagram Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 230000002526 effect on cardiovascular system Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 208000028867 ischemia Diseases 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000002565 electrocardiography Methods 0.000 description 4
- 230000003902 lesion Effects 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 231100001012 cardiac lesion Toxicity 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000002604 ultrasonography Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000002583 angiography Methods 0.000 description 2
- 230000008021 deposition Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012285 ultrasound imaging Methods 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000000481 breast Anatomy 0.000 description 1
- 210000000748 cardiovascular system Anatomy 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000004291 uterus Anatomy 0.000 description 1
- 230000002792 vascular Effects 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5217—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/50—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
- A61B6/503—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0883—Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
Definitions
- the present invention relates to a method and an application for determining a cardiovascular lesion using a CT image.
- Various methods such as electrocardiogram, exercise test, CT, angiography, intravascular ultrasound, and near-infrared spectroscopy are used as methods for determining cardiovascular lesions.
- CT imaging is a computed tomography method using a CT scanner. X-rays and ultrasonic waves are projected onto a human body at various angles and reconstructed by a computer to process images of the inner surface of the human body as an image, which is widely used as a diagnostic method for tumors and the like.
- angiography and intravascular ultrasound are invasive methods that are difficult for patients to use.
- Deep learning is defined as a set of machine learning algorithms that try to achieve high levels of abstraction (a task that summarizes key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformation techniques. Deep learning can be viewed as a field of machine learning that teaches computers how people think in a big way.
- a problem to be solved by the present invention is to provide a method and an application for determining a cardiovascular lesion using a CT image.
- a method for analyzing a medical image includes acquiring a CT image of a heart of a subject and inputting the obtained CT image into a learned first model And acquiring information on the inside of the coronary artery of the subject.
- the step of acquiring information on the inside of the coronary artery of the subject may include acquiring information on a plaque inside the coronary artery of the subject.
- the learned first model may be a CT image obtained by photographing a heart of a subject, IntraVascular Ultrasound (IVUS) of a subject, and Near Infra Red Spectroscopy (NIRS) results of a coronary artery of a subject And a model that is learned by using the model.
- IVUS IntraVascular Ultrasound
- NIRS Near Infra Red Spectroscopy
- the step of acquiring information on the inside of the coronary artery of the subject may include acquiring information on the shape of the coronary artery of the subject.
- the learned first model may be a model learned using a CT image of a subject's heart and an IVUS of a coronary artery of a subject.
- the step of acquiring information on the inside of the coronary artery may further include the step of acquiring information on the acquired coronary artery internal information by inputting the acquired information on the internal coronary artery shape into the learned second model .
- the learned second model may be a learned model using the coronary artery intravascular ultrasound image (IVUS) of the subject and the NIRS result of the coronary artery of the subject.
- IVUS intravascular ultrasound image
- the step of acquiring information on the inside of the coronary artery may further include the step of determining an interval causing angina in the coronary artery of the subject.
- the learned first model may be a model learned by using a CT image of a heart of a subject and a result of a test for a fractional flow reserve (FFR) in a coronary artery of a subject. have.
- FFR fractional flow reserve
- the invasive examination method can be substituted by the non-invasive examination method CT photographing.
- FIG. 1 is a conceptual diagram illustrating a system for determining a cardiovascular state of a subject using a CT image according to an exemplary embodiment of the present invention.
- FIG. 2 is a flowchart briefly illustrating a method of determining a cardiovascular state of a subject using a CT image according to an embodiment.
- FIG. 3 is a flowchart illustrating a method of determining a cardiovascular state of a subject using a CT image according to an exemplary embodiment of the present invention.
- FIG. 4 is a diagram showing an example of a cardiac CT image, a coronary artery IVUS image, and a coronary artery TVC image of a subject.
- FIG. 5 is a flowchart illustrating a method of determining a cardiac lesion of a subject according to an exemplary embodiment of the present invention.
- FIG. 6 is a diagram showing an example of acquiring a coronary artery TVC image from a cardiac CT image.
- FIG. 7 is a diagram illustrating an example of a method for learning a model capable of acquiring a TVC image from an IVUS image of a coronary artery.
- FIG. 8 is a diagram showing an example of a method of dividing an intravascular ultrasound image.
- FIG. 9 is a flowchart illustrating a method for acquiring a coronary artery section causing angina from a cardiac CT image according to an embodiment.
- FIG. 10 is a flowchart illustrating a method for determining a heart disease of a subject according to an exemplary embodiment of the present invention.
- part or module refers to a hardware component, such as a software, FPGA, or ASIC, and a “component” or “module” performs certain roles.
- part “ or “ module” is not meant to be limited to software or hardware.
- a “ module “ or “ module” may be configured to reside on an addressable storage medium and configured to play back one or more processors.
- " a " or " module " is intended to encompass all types of elements, such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as used herein.
- " modules " may be combined with a smaller number of components and " parts " or " modules " Can be further separated.
- spatially relative can be used to easily describe a correlation between an element and other elements.
- Spatially relative terms should be understood in terms of the directions shown in the drawings, including the different directions of components at the time of use or operation. For example, when inverting an element shown in the figures, an element described as “below” or “beneath” of another element may be placed “above” another element .
- the exemplary term “ below” can include both downward and upward directions.
- the components can also be oriented in different directions, so that spatially relative terms can be interpreted according to orientation.
- the term "image" may refer to multi-dimensional data composed of discrete image elements (e.g., pixels in a two-dimensional image and voxels in a three-dimensional image).
- the image may include a medical image or the like of the object obtained by the CT photographing apparatus.
- CT Computer Tomography
- an " object" may be a person or an animal, or part or all of a person or an animal.
- the subject may comprise at least one of the following: liver, heart, uterus, brain, breast, organs such as the abdomen, and blood vessels.
- the " object " may also be a phantom.
- a phantom is a material that has a volume that is very close to the density of the organism and the effective atomic number, and can include a spheric phantom that has body-like properties.
- the term "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging specialist, or the like, and may be a technician repairing a medical device.
- FIG. 1 is a conceptual diagram illustrating a system for determining a cardiovascular state of a subject using a CT image according to an exemplary embodiment of the present invention.
- the system shown in FIG. 1 includes a CT system 100 and a computer 200.
- the CT system 100 can provide a sectional image to the object 10 so that the internal structure of the object (for example, an organ such as a kidney, a lung, etc.) can be expressed without overlapping with a general X- .
- the internal structure of the object for example, an organ such as a kidney, a lung, etc.
- the CT system 100 can obtain a relatively accurate sectional image with respect to a target object, for example, by acquiring image data of 2 mm or less in thickness at several tens or hundreds of times per second.
- image reconstruction techniques include the following techniques.
- MinIP minimum intensity projection
- - VR volume rendering
- the CT system 100 may include various types of devices, and the structure of the CT system 100 shown in FIG. 1 is described as an example.
- the CT system 100 may include a gantry 102, a table 105, an X-ray generator 106, and an X-ray detector 108.
- the gantry 102 may include an X-ray generating unit 106 and an X-ray detecting unit 108.
- the object 10 can be placed on the table 105.
- the table 105 can be moved in a predetermined direction (e.g., at least one of up, down, left, and right) in the CT photographing process.
- a predetermined direction e.g., at least one of up, down, left, and right
- the table 105 may be tilted or rotated by a predetermined angle in a predetermined direction.
- the gantry 102 may be inclined by a predetermined angle in a predetermined direction.
- CT system 100 includes a workstation 110 that is capable of acquiring and analyzing photographed CT images.
- the workstation 110 transmits the obtained CT image to the computer 200, and the computer 200 determines the cardiovascular state of the subject using the CT image according to the disclosed embodiment.
- FIG. 2 is a flowchart briefly illustrating a method of determining a cardiovascular state of a subject using a CT image according to an embodiment.
- the method shown in FIG. 2 is comprised of steps that are time series processed in the computer 200 shown in FIG.
- step S210 the first model is learned.
- the learning of the first model may be performed by the computer 200 or may be performed by at least one other computer.
- the learned first model may be stored in the computer 200 or may be stored in the server and used by the computer 200.
- the first model is learned based on machine learning. In one embodiment, the first model is learned based on deep learning.
- Deep learning is defined as a set of machine learning algorithms that try to achieve high levels of abstraction (a task that summarizes key content or functions in large amounts of data or complex data) through a combination of several nonlinear transformation techniques. Deep learning can be viewed as a field of machine learning that teaches computers how people think in a big way.
- Deep learning techniques include Deep Neural Networks (DNN), Convolutional Deep Neural Networks (CNN), Recurrent Neural Networks (RNN), and Deep Belief Networks (DBN). have.
- DNN Deep Neural Networks
- CNN Convolutional Deep Neural Networks
- RNN Recurrent Neural Networks
- DBN Deep Belief Networks
- Deep Neural Networks is an Artificial Neural Network (ANN) composed of hidden layers between an input layer and an output layer.
- ANN Artificial Neural Network
- the first model according to the disclosed embodiment can be learned by any learning method.
- the first model according to the disclosed embodiment may include supervised learning in which input data and output data are provided as learning data, unsupervised learning in which no separate labeled data is provided, But it is not limited to, for example, reinforcement learning in which feedback is provided to the user.
- the first model comprises a CT image of a subject's heart, an intravascular ultrasound (IVUS) image of a subject, and a Near Infra Red Spectroscopy (NIRS) result of a coronary artery in a subject At least one of them is learned.
- IVUS intravascular ultrasound
- NIRS Near Infra Red Spectroscopy
- the first model is learned by using at least a part of the CT image of the heart of the object as input data and using at least one of the IVUS image and the NIRS result of the object as output data.
- the first model is learned by using at least a part of the CT image of the heart of the object as input data and the TVC image of the object as output data.
- the TVC image is acquired by Infraredx's TVC imaging system and provides information on lesion size and chemical composition through ultrasound imaging and near-infrared spectroscopy on the inside of the blood vessel.
- the TVC image is used as a term to refer to an image obtained through an ultrasound image and a near-infrared spectroscopy within the blood vessel, and is not necessarily limited to an image obtained by Infra Redix's TVC image system.
- step S220 the computer 200 acquires a cardiac CT image of the subject.
- the computer 200 acquires at least some of the cardiac CT images of the subject.
- the computer 200 acquires a portion of a cardiac CT image of a subject that has taken a coronary artery.
- step S230 the computer 200 inputs the CT image acquired in step S220 to the first model learned in step S210 to acquire information on the inside of the coronary artery of the subject.
- the information about the coronary interior of a subject includes information about a plaque within the coronary artery of the subject.
- the computer 200 inputs the CT image acquired in step S220 to the first model learned in step S210 to acquire information about the deposits within the coronary artery of the subject.
- the computer 200 inputs at least a part of the CT image acquired in step S220 (for example, the part of the coronary artery taken) to the first model learned in step S210, Obtain the NIRS result.
- the computer 200 inputs at least a part of the CT image acquired in step S220 (for example, the part of the coronary artery taken) to the first model learned in step S210, Obtain the TVC image.
- the information about the interior of the coronary artery of the subject includes information about the shape of the interior of the coronary artery of the subject.
- the computer 200 inputs the CT image acquired in step S220 to the first model learned in step S210 to acquire information on the shape of the interior of the coronary artery of the subject.
- the computer 200 may input at least a part of the CT image obtained in step S220 (for example, a part of the coronary artery taken) to the first model learned in step S210 to calculate a coronary artery internal ultrasound image (IVUS image).
- IVUS image coronary artery internal ultrasound image
- FIG. 3 is a flowchart illustrating a method of determining a cardiovascular state of a subject using a CT image according to an exemplary embodiment of the present invention.
- the method shown in FIG. 3 is comprised of steps that are processed in a time-series manner in the computer 200 shown in FIG.
- FIG. 3 is an embodiment of the method shown in FIG. 2, and although the description omitted from FIG. 3, the description of FIG. 2 also applies to FIG.
- step S210 the first model and the second model are learned.
- the first model corresponds to the first model described with reference to Fig.
- the first model is learned by using at least a part of the CT image of the heart of the object as input data and the IVUS image of the object as output data.
- the first model is learned by taking, as input data, a portion of a coronary artery taken from a CT image of a subject's heart, and using the IVUS image of the captured coronary artery as output data.
- the second model is learned using a coronary artery intravascular ultrasound image of the subject and a near infrared spectroscopy (NIRS) result in the subject's coronary artery.
- NIRS near infrared spectroscopy
- the second model is learned by using the coronary artery intravascular ultrasound image of the object as input data and the result of the near infrared ray spectroscopy in the coronary artery blood vessel of the object as output data.
- the second model is learned using the coronary artery intravascular ultrasound image of the subject as input data and the TVC image in the coronary artery blood vessel of the subject as output data.
- step S320 the computer 200 acquires a cardiac CT image of the subject.
- step S330 the computer 200 inputs the cardiac CT image of the subject to the first model learned in step S310 to acquire information on the internal shape of the coronary artery of the subject.
- the computer 200 acquires a coronary artery intravascular ultrasound image of a subject by inputting a cardiac CT image of the subject into the first model learned in step S310.
- step S340 the computer 200 inputs the coronary artery intravascular ultrasound image of the object obtained in step S330 to the second model learned in step S310 to acquire information on the deposits in the coronary artery of the subject.
- the computer 200 inputs the coronary artery intravascular ultrasound image of the object obtained in step S330 to the second model learned in step S310 to obtain information on the NIRS result inside the coronary artery of the subject .
- the computer 200 inputs the coronary artery intravascular ultrasound image of the object obtained in step S330 to the second model learned in step S310 to acquire the TVC image inside the coronary artery of the subject.
- FIG. 4 an example of a cardiac CT image 400, a coronary IVUS image 410, and a coronary artery TVC image 420 of a subject are shown.
- the computer 200 may use the method described with reference to Figures 2 and 3 to determine the portion of the subject's heart CT image 400 (e.g., the portion of the coronary artery taken 402) Model to obtain the coronary artery IVUS image 410 of the subject or the coronary artery TVC image 420 of the subject.
- the portion of the subject's heart CT image 400 e.g., the portion of the coronary artery taken 402
- Model to obtain the coronary artery IVUS image 410 of the subject or the coronary artery TVC image 420 of the subject.
- the computer 200 inputs the acquired coronary artery IVUS image 410 of the object to the learned model to obtain the coronary artery TVC image 420 of the subject.
- FIG. 5 is a flowchart illustrating a method of determining a cardiac lesion of a subject according to an exemplary embodiment of the present invention.
- a method of determining a cardiac lesion of an object at an early stage is electrocardiography (ECG) shown in step S510.
- ECG electrocardiography
- step S520 a cardiac CT scan is performed to observe the external shape of the heart. If it is difficult to determine the lesion through the cardiac CT scan, the angiogram shown in step S530 is used to observe the heart lesion.
- step S540 an intravascular ultrasound (IVUS) image is taken to acquire the shape of the blood vessel interior.
- IVUS intravascular ultrasound
- the TVC image is acquired using the near-infrared spectroscopy together at step S550.
- the diagnosis methods shown in FIG. 5 are not necessarily performed sequentially or step by step, but may be selectively used according to the expert's opinion.
- steps S530 to S550 correspond to an invasive inspection, and are relatively expensive and difficult to use.
- the IVUS image or the TVC image of the coronary artery can be obtained using the cardiac CT image of the object obtained in step S520.
- the computer 200 can acquire the coronary artery TVC image of the subject from the cardiac CT image of the subject using the learned model.
- step S524 the computer 200 acquires the coronary artery IVUS image of the subject from the cardiac CT image of the subject using the learned model, inputs the obtained IVUS image to the learned model, and displays the coronary artery TVC image of the subject Can be obtained.
- the learned model corresponding to step S522 may be in the form of a merged learned model corresponding to step S524 and step S542.
- the learned model corresponding to step S522 may be a learned model using cardiac CT and coronary artery TVC images.
- FIG. 6 is a diagram showing an example of acquiring a coronary artery TVC image from a cardiac CT image.
- FIG. 6 a cardiac CT image 600 of a subject is shown.
- TVC images are acquired using coronary artery internal ultrasound imaging and near infrared spectroscopy, and TVC can be used to obtain cross sections 650 and 660 on different sides of the coronary artery as shown in FIG.
- deposits 654 represent deposits of dangerous traits that can cause angina in blood vessel wall 652.
- section 660 in addition to the IVUS image corresponding to one cross section within the coronary artery, information about the side where the dangerous trait deposit is formed is displayed on the edge of the IVUS image.
- the computer 200 may obtain a TVC image 650 or 660 using the coronary artery portion 602 of the cardiac CT image 600.
- a learned model can be utilized to acquire a TVC image of a coronary artery from an IVUS image of a coronary artery .
- FIG. 7 an example of a method for learning a model capable of acquiring a TVC image from an IVUS image of a coronary artery is shown.
- the TVC image 700 can be divided into a portion 704 showing the inner shape of the blood vessel that can be acquired using the IVUS and a portion 702 showing the characteristic of the inner blood vessel deposition acquired using the NIRS.
- the computer 200 may cut the TVC image 700 at a predetermined angle.
- the computer 200 may cut the TVC image 700 into rectangles 710 and 720 that are inclined by 10 degrees, as shown in FIG.
- the computer 200 determines whether the internal shape of the blood vessels contained in each of the cut rectangles is normal or abnormal using a portion 702 showing the trait of the intra-vascular deposition contained in each of the cut rectangles It can be judged.
- each of the cut rectangles 710 and 720 may be machined into training data 730 and 740, labeled normal and abnormal, respectively.
- the computer 200 performs learning of the model using the labeled learning data 730 and 740.
- the computer 200 cuts out the obtained IVUS image at a predetermined angle, and then inputs each cut image into the learned model to determine whether it is normal or abnormal.
- the computer 200 can restore the TVC image from the IVUS image based on the determination result of each cut image.
- FIG. 8 is a diagram showing an example of a method of dividing an intravascular ultrasound image.
- an intravascular ultrasound image 800 is shown.
- Each part of the image 800 can be divided or labeled in order to learn a model using the ultrasound image 800 as input data or output data.
- the image 800 includes an image of the blood vessel tissue 810, the deposit 820, and the blood vessel interior 830.
- the image 800 is automatically or manually segmented or labeled with vascular tissue 810, deposits 820 and intravascular spaces 830.
- the deposits 820 or the interior of the blood vessel 830 may be represented as a region of interest and utilized to learn the model so that the model can distinguish deposits or veins from intravascular ultrasound images .
- FIG. 9 is a flowchart illustrating a method for acquiring a coronary artery section causing angina from a cardiac CT image according to an embodiment.
- the method shown in FIG. 9 is comprised of steps that are processed in a time-series manner in the computer 200 shown in FIG.
- Fractional Flow Reserve (FFR) test measures the pressure in the coronary artery and is used to determine the interval that actually causes ischemia in the coronary arteries, that is, the zone that causes angina.
- the blood vessels may appear to be narrowed or clogged, but they may not actually cause ischemia, and may cause ischemia even though there are no symptoms or exercise tests are negative.
- step S910 the third model is learned.
- the third model is learned using the CT image of the subject's heart and the FFR test result of the subject.
- the third model can be learned by taking at least a part of the CT image of the heart of the object as input data and using the result of FFR inspection of the object as output data.
- step S920 the computer 200 acquires a cardiac CT image of the subject.
- step S930 the computer 200 inputs the cardiac CT image of the object obtained in step S920 to the third model learned in step S910 to determine the section causing angina in the coronary artery of the subject.
- the computer 200 inputs the cardiac CT image of the subject obtained in step S920 to the third model learned in step S910, and acquires FFR data for the coronary artery of the subject.
- step S1010 a CT image of the subject's heart is photographed and, if necessary, morphological information inside the coronary artery is acquired as described in FIGS. 1 to 8.
- FIG. 10 a CT image of the subject's heart is photographed and, if necessary, morphological information inside the coronary artery is acquired as described in FIGS. 1 to 8.
- step S1020 an FFR check is performed to determine a portion where ischemia occurs in the coronary artery of the subject.
- the computer 200 may obtain information about a portion where ischemia occurs in the coronary artery of the subject using the cardiac CT image of the subject obtained in Step S1010 and the learned model (Step S1015) .
- the steps of a method or algorithm described in connection with the embodiments of the present invention may be embodied directly in hardware, in software modules executed in hardware, or in a combination of both.
- the software module may be a random access memory (RAM), a read only memory (ROM), an erasable programmable ROM (EPROM), an electrically erasable programmable ROM (EEPROM), a flash memory, a hard disk, a removable disk, a CD- May reside in any form of computer readable recording medium known in the art to which the invention pertains.
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Physics & Mathematics (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Cardiology (AREA)
- Pulmonology (AREA)
- Theoretical Computer Science (AREA)
- Physiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
컴퓨터가 의료영상을 분석하는 방법에 있어서, 대상체의 심장을 촬영한 CT 영상을 획득하는 단계 및 상기 획득된 CT 영상을 학습된 제1 모델에 입력하여 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계를 포함하는, 방법이 개시된다.
Description
본 발명은 CT 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션에 관한 것이다.
심혈관 병변을 판단하기 위한 방법으로서, 심전도 검사, 운동부하검사, CT 촬영, 혈관 조영술, 혈관 내 초음파 촬영 및 근적외선 분광법 등 다양한 방법이 사용된다.
CT 촬영은 CT 스캐너를 이용한 컴퓨터단층촬영법으로, 엑스선이나 초음파를 여러 각도에서 인체에 투영하고 이를 컴퓨터로 재구성하여 인체 내부 단면의 모습을 화상으로 처리하는데, 종양 등의 진단법으로 널리 이용되고 있다.
반면 혈관 조영술, 혈관 내 초음파 촬영 등은 침습적인 검사방법으로서 환자가 이용하기 어려운 면이 있다.
최근에는 딥 러닝을 이용하여 다양한 의료영상을 처리하여 필요한 정보를 획득하는 방법에 대한 개발이 활발하게 진행되고 있다.
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
본 발명이 해결하고자 하는 과제는 CT 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션을 제공하는 것이다.
본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따라 컴퓨터가 의료영상을 분석하는 방법은, 대상체의 심장을 촬영한 CT 영상을 획득하는 단계 및 상기 획득된 CT 영상을 학습된 제1 모델에 입력하여 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계를 포함한다.
또한, 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 대상체의 관상동맥 내부의 침착물(plaque)에 대한 정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 학습된 제1 모델은, 대상체의 심장을 촬영한 CT 영상, 대상체의 관상동맥 혈관 내 초음파 영상(IntraVascular UltraSound, IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(Near InfraRed Spectrocopy, NIRS) 결과를 이용하여 학습된 모델인 것을 특징으로 할 수 있다.
또한, 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 대상체의 관상동맥 내부 형태에 대한 정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 학습된 제1 모델은, 대상체의 심장을 촬영한 CT 영상 및 대상체의 관상동맥 혈관 내 초음파 영상(IVUS)을 이용하여 학습된 모델인 것을 특징으로 할 수 있다.
또한, 상기 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 획득된 관상동맥 내부 형태에 대한 정보를 학습된 제2 모델에 입력하여 상기 관상동맥 내부의 침착물에 대한 정보를 획득하는 단계를 더 포함할 수 있다.
또한, 상기 학습된 제2 모델은, 대상체의 관상동맥 혈관 내 초음파 영상(IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(NIRS) 결과를 이용하여 학습된 모델인 것을 특징으로 할 수 있다.
또한, 상기 관상동맥 내부에 대한 정보를 획득하는 단계는, 상기 대상체의 관상동맥에서 협심증을 일으키는 구간을 판단하는 단계를 더 포함할 수 있다.
또한, 상기 학습된 제1 모델은, 대상체의 심장을 촬영한 CT 영상 및 대상체의 관상동맥 혈관 내의 심근분획혈류예비력(Fractional Flow Reserve, FFR) 검사결과를 이용하여 학습된 모델인 것을 특징으로 할 수 있다.
상술한 과제를 해결하기 위한 본 발명의 일 면에 따른 방법을 수행할 수 있도록 컴퓨터에서 읽을 수 있는 기록매체에 저장된 애플리케이션이 제공된다.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.
개시된 실시 예에 따르면, 비침습적 검사방법인 CT 촬영을 통하여 침습적 검사방식을 대체할 수 있는 효과가 있다.
또한, 심혈관의 형태적 의의뿐 아니라 증상적 의의를 갖는 정보 또한 개시된 실시 예에 따라 획득할 수 있어, 환자의 병변을 보다 정확히 판단하고, 치료방법을 구체적으로 판단할 수 있는 효과가 있다.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 시스템을 도시한 개념도이다.
도 2는 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 간략하게 도시한 흐름도이다.
도 3은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 도시한 흐름도이다.
도 4는 대상체의 심장 CT 영상, 관상동맥 IVUS 영상 및 관상동맥 TVC 영상의 예시를 도시한 도면이다.
도 5는 일 실시 예에 따른 대상체의 심장병변 판단방법을 도시한 흐름도이다.
도 6은 심장 CT 영상으로부터 관상동맥 TVC 영상을 획득하는 일 예를 도시한 도면이다.
도 7은 관상동맥의 IVUS 영상으로부터 TVC 영상을 획득할 수 있는 모델을 학습시키기 위한 방법의 일 예를 도시한 도면이다.
도 8은 혈관 내 초음파 영상을 분할하는 방법의 일 예를 도시한 도면이다.
도 9는 일 실시 예에 따라 심장 CT 영상으로부터 협심증을 일으키는 관상동맥 구간을 획득하는 방법을 도시한 흐름도이다.
도 10은 일 실시 예에 따른 대상체의 심장질환 판단방법을 도시한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.
본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.
본 명세서에서 "CT(Computed Tomography) 영상"이란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.
본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. 또한, "대상체"는 팬텀(phantom)일수도 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.
본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 시스템을 도시한 개념도이다.
도 1에 도시된 시스템은 CT 시스템(100) 및 컴퓨터(200)를 포함한다.
CT 시스템(100)은 대상체(10)에 대하여 단면 영상을 제공할 수 있으므로, 일반적인 X-ray 촬영 기기에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)가 겹치지 않게 표현할 수 있다는 장점이 있다.
CT 시스템(100)은, 예를 들어, 2mm 두께 이하의 영상데이터를 초당 수십, 수백 회 획득하여 가공함으로써 대상체에 대하여 비교적 정확한 단면 영상을 제공할 수 있다. 종래에는 대상체의 가로 단면만으로 표현된다는 문제점이 있었지만, 다음과 같은 여러 가지 영상 재구성 기법의 등장에 의하여 극복되었다. 3차원 재구성 영상기법들로는 다음과 같은 기법들이 있다.
- SSD(Shade surface display): 초기 3차원 영상기법으로 일정 HU값을 가지는 복셀들만 나타내도록 하는 기법.
- MIP(maximum intensity projection)/MinIP(minimum intensity projection): 영상을 구성하는 복셀 중에서 가장 높은 또는 낮은 HU값을 가지는 것들만 나타내는 3D 기법.
- VR(volume rendering): 영상을 구성하는 복셀들을 관심영역별로 색 및 투과도를 조절할 수 있는 기법.
- 가상내시경(Virtual endoscopy): VR 또는 SSD 기법으로 재구성한 3차원 영상에서 내시경적 관찰이 가능한 기법.
- MPR(multi planar reformation): 다른 단면 영상으로 재구성하는 영상 기법. 사용자가 원하는 방향으로의 자유자제의 재구성이 가능하다.
- Editing: VR에서 관심부위를 보다 쉽게 관찰하도록 주변 복셀들을 정리하는 여러 가지 기법.
- VOI(voxel of interest): 선택 영역만을 VR로 표현하는 기법.
본 발명의 실시예에 따른 CT 시스템(100)은 다양한 형태의 장치들을 포함할 수 있으며, 도 1에 도시된 CT 시스템(100)의 구조는 일례로서 설명된다.
도 1을 참조하면, CT 시스템(100)은 갠트리(102), 테이블(105), X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다.
갠트리(102)는 X-ray 생성부(106) 및 X-ray 검출부(108)를 포함할 수 있다.
대상체(10)는 테이블(105) 상에 위치될 수 있다.
테이블(105)은 CT 촬영 과정에서 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동할 수 있다. 또한, 테이블(105)은 소정의 방향으로 소정의 각도만큼 기울어질 수 있거나(tilting) 또는 회전(rotating)될 수 있다.
또한, 갠트리(102)도 소정의 방향으로 소정의 각도만큼 기울어질 수 있다.
일 실시 예에서, CT 시스템(100)은 촬영된 CT 영상을 획득 및 분석할 수 있는 워크스테이션(110)을 포함한다.
워크스테이션(110)은 획득된 CT 영상을 컴퓨터(200)에 전달하고, 컴퓨터(200)는 개시된 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단한다.
도 2는 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 간략하게 도시한 흐름도이다.
도 2에 도시된 방법은 도 1에 도시된 컴퓨터(200)에서 시계열적으로 처리되는 단계들을 포함하여 구성된다.
단계 S210에서, 제1 모델이 학습된다. 제1 모델의 학습은 컴퓨터(200)에 의하여 수행될 수도 있고, 적어도 하나의 다른 컴퓨터에 의하여 수행될 수도 있다.
학습된 제1 모델은 컴퓨터(200)에 저장될 수도 있고, 서버에 저장되어 컴퓨터(200)에 의하여 이용될 수도 있다.
일 실시 예에서, 제1 모델은 기계학습(machine learning)에 의거하여 학습된다. 일 실시 예에서, 제1 모델은 딥 러닝(deep learning)에 의거하여 학습된다.
딥 러닝은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)를 시도하는 기계학습 알고리즘의 집합으로 정의된다. 딥 러닝은 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야로 볼 수 있다.
어떠한 데이터가 있을 때 이를 컴퓨터가 알아 들을 수 있는 형태(예를 들어 영상의 경우는 픽셀정보를 열벡터로 표현하는 등)로 표현(representation)하고 이를 학습에 적용하기 위해 많은 연구(어떻게 하면 더 좋은 표현기법을 만들고 또 어떻게 이것들을 학습할 모델을 만들지에 대한)가 진행되고 있다. 이러한 노력의 결과로 다양한 딥 러닝 기법들이 개발되었다. 딥 러닝 기법들로는 심층 신경망(Deep Neural Networks, DNN), 합성곱 신경망(Convolutional deep Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경망(Deep Belief Networks, DBN)을 예로 들 수 있다.
심층 신경망(Deep Neural Networks, DNN)은 입력 계층(input layer)과 출력 계층(output layer) 사이에 복수개의 은닉 계층(hidden layer)들로 이뤄진 인공신경망(Artificial Neural Network, ANN)이다.
상술한 알고리즘 또는 학습방법은 예시로서 서술된 것이며, 개시된 실시 예에 따른 제1 모델은 어떠한 학습방법에 의하여서도 학습될 수 있다. 예를 들어, 개시된 실시 예에 따른 제1 모델은 입력 데이터와 출력 데이터가 학습 데이터로서 제공되는 지도 학습(supervised learning), 별도의 라벨링된 데이터가 제공되지 않는 비지도 학습(unsupervised learning), 학습 결과에 대한 피드백이 제공되는 강화학습(reinforcement learning) 등에 의하여 학습될 수 있으나, 이에 제한되지 않는다.
일 실시 예에서, 제1 모델은 대상체의 심장을 촬영한 CT 영상, 대상체의 관상동맥 혈관 내 초음파 영상(IntraVascular UltraSound, IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(Near InfraRed Spectrocopy, NIRS) 결과 중 적어도 하나를 이용하여 학습된다.
제1 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 IVUS 영상 및 NIRS 결과 중 적어도 하나를 출력 데이터로 하여 학습된다.
일 실시 예에서, 제1 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 TVC 영상을 출력 데이터로 하여 학습된다.
개시된 실시 예에서, TVC 영상은 인프라레딕스(Infraredx)의 TVC 영상 시스템에 의하여 획득되는 것으로, 혈관 내부에 대한 초음파 영상과 근적외선 분광학을 통해 병변의 크기 및 화학적 성분의 정보를 제공한다.
개시된 실시 예에서, TVC 영상은 혈관 내부에 대한 초음파 영상과 근적외선 분광학을 통하여 획득되는 영상을 지칭하는 용어로서 활용되며, 반드시 인프라레딕스의 TVC 영상 시스템에 의하여 획득된 영상으로만 제한되는 것은 아니다.
단계 S220에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 획득한다.
일 실시 예에서, 컴퓨터(200)는 대상체의 심장 CT 영상 중 적어도 일부를 획득한다.
일 실시 예에서, 컴퓨터(200)는 대상체의 심장 CT 영상 중 관상동맥을 촬영한 일부를 획득한다.
단계 S230에서, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상을 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부에 대한 정보를 획득한다.
일 실시 예에서, 대상체의 관상동맥 내부에 대한 정보는, 대상체의 관상동맥 내부의 침착물(plaque)에 대한 정보를 포함한다.
일 실시 예에서, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상을 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부의 침착물에 대한 정보를 획득한다.
예를 들어, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상의 적어도 일부(예를 들어, 관상동맥을 촬영한 부분)를 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부에 대한 NIRS 결과를 획득한다.
예를 들어, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상의 적어도 일부(예를 들어, 관상동맥을 촬영한 부분)를 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부에 대한 TVC 영상을 획득한다.
일 실시 예에서, 대상체의 관상동맥 내부에 대한 정보는, 대상체의 관상동맥 내부의 형태에 대한 정보를 포함한다.
일 실시 예에서, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상을 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부의 형태에 대한 정보를 획득한다.
예를 들어, 컴퓨터(200)는 단계 S220에서 획득된 CT 영상의 적어도 일부(예를 들어, 관상동맥을 촬영한 부분)를 단계 S210에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부 초음파 영상(IVUS 영상)을 획득한다.
도 3은 일 실시 예에 따라 CT 영상을 이용하여 대상체의 심장혈관 상태를 판단하는 방법을 도시한 흐름도이다.
도 3에 도시된 방법은 도 1에 도시된 컴퓨터(200)에서 시계열적으로 처리되는 단계들을 포함하여 구성된다.
또한, 도 3에 도시된 방법은 도 2에 도시된 방법의 일 실시 예로서, 도 3과 관련하여 생략된 내용이라 할지라도 도 2와 관련하여 설명된 내용은 도 3에도 적용된다.
단계 S210에서, 제1 모델 및 제2 모델이 학습된다.
제1 모델은 도 2와 관련하여 설명된 제1 모델에 대응한다.
일 실시 예에서, 제1 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 IVUS 영상을 출력 데이터로 하여 학습된다.
예를 들어, 제1 모델은 대상체의 심장을 촬영한 CT 영상에서 관상동맥을 촬영한 부분을 입력 데이터로 하고, 촬영된 관상동맥의 IVUS 영상을 출력 데이터로 하여 학습된다.
일 실시 예에서, 제2 모델은 대상체의 관상동맥 혈관 내 초음파 영상 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(NIRS) 결과를 이용하여 학습된다.
예를 들어, 제2 모델은 대상체의 관상동맥 혈관 내 초음파 영상을 입력 데이터로 하고, 대상체의 관상동맥 혈관 내의 근적외선 분광법 결과를 출력 데이터로 하여 학습된다.
예를 들어, 제2 모델은 대상체의 관상동맥 혈관 내 초음파 영상을 입력 데이터로 하고, 및 대상체의 관상동맥 혈관 내의 TVC 영상을 출력 데이터로 이용하여 학습된다.
단계 S320에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 획득한다.
단계 S330에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 단계 S310에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 내부 형태에 대한 정보를 획득한다.
일 실시 예에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 단계 S310에서 학습된 제1 모델에 입력하여 대상체의 관상동맥 혈관 내 초음파 영상을 획득한다.
단계 S340에서, 컴퓨터(200)는 단계 S330에서 획득된 대상체의 관상동맥 혈관 내 초음파 영상을 단계 S310에서 학습된 제2 모델에 입력하여 대상체의 관상동맥 혈관 내부의 침착물에 대한 정보를 획득한다.
일 실시 예에서, 컴퓨터(200)는 단계 S330에서 획득된 대상체의 관상동맥 혈관 내 초음파 영상을 단계 S310에서 학습된 제2 모델에 입력하여 대상체의 관상동맥 혈관 내부의 NIRS 결과에 대한 정보를 획득한다.
일 실시 예에서, 컴퓨터(200)는 단계 S330에서 획득된 대상체의 관상동맥 혈관 내 초음파 영상을 단계 S310에서 학습된 제2 모델에 입력하여 대상체의 관상동맥 혈관 내부의 TVC 영상을 획득한다.
도 4를 참조하면, 대상체의 심장 CT 영상(400), 관상동맥 IVUS 영상(410) 및 관상동맥 TVC 영상(420)의 예시가 도시되어 있다.
컴퓨터(200)는 도 2 및 도 3과 관련하여 설명된 방법을 이용하여, 대상체의 심장 CT 영상(400)에 포함된 일부(예를 들어, 관상동맥이 촬영된 부분(402))를 학습된 모델에 입력하여, 대상체의 관상동맥 IVUS 영상(410) 또는 대상체의 관상동맥 TVC 영상(420)을 획득한다.
컴퓨터(200)는 획득된 대상체의 관상동맥 IVUS 영상(410)을 학습된 모델에 입력하여, 대상체의 관상동맥 TVC 영상(420)을 획득한다.
도 5는 일 실시 예에 따른 대상체의 심장병변 판단방법을 도시한 흐름도이다.
일반적으로, 초기단계에서 대상체의 심장병변을 판단하는 방법은 단계 S510에 도시된 심전도 검사(electrocardiography, ECG)이다. 심전도 검사의 종류는 다양하며, 24시간 심전도 검사, 운동부하 심전도 검사 등이 포함된다.
단계 S520에서, 심장의 외부 형태를 관찰하기 위하여 심장 CT 촬영이 수행된다. 심장 CT 촬영을 통해 병변의 판단이 어려운 경우, 단계 S530에 도시된 혈관조영술을 통하여 심장병변을 관찰하게 된다.
나아가, 단계 S540에서는 혈관 내 초음파(IVUS)영상을 촬영하여 혈관 내부의 형태를 획득한다. 다만 IVUS 영상만으로는 혈관 내부의 형태를 구성하는 각 구성요소의 형질을 판단하기 어려우므로, 단계 S550에서는 근적외선 분광법을 함께 활용하여 TVC 영상을 획득한다.
도 5에 도시된 각 진단방법이 순차적으로 또는 각 단계별로 모두 수행되어야 하는 것은 아니며, 전문의의 소견에 따라 선택적으로 활용될 수 있다.
다만 단계 S530 내지 단계 S550은 침습적 검사에 해당하고, 상대적으로 고가의 검사방법이므로 쉽게 이용하기 어렵다.
도 2 내지 도 4와 관련하여 설명된 방법에 따르면, 단계 S520에서 획득된 대상체의 심장 CT 영상을 이용하여 관상동맥의 IVUS 영상 또는 TVC 영상을 획득할 수 있다.
단계 S522에 따르면, 컴퓨터(200)는 학습된 모델을 이용하여 대상체의 심장 CT 영상으로부터 대상체의 관상동맥 TVC 영상을 획득할 수 있다.
단계 S524에 따르면, 컴퓨터(200)는 학습된 모델을 이용하여 대상체의 심장 CT 영상으로부터 대상체의 관상동맥 IVUS 영상을 획득하고, 획득된 IVUS 영상을 학습된 모델에 입력하여 대상체의 관상동맥 TVC 영상을 획득할 수 있다.
일 실시 예에서, 단계 S522에 대응하는 학습된 모델은 단계 S524 및 단계 S542에 대응하는 학습된 모델이 병합된 형태일 수 있다.
일 실시 예에서, 단계 S522에 대응하는 학습된 모델은 심장 CT 영상과 관상동맥 TVC 영상을 이용하여 학습된 모델일 수 있다.
도 6은 심장 CT 영상으로부터 관상동맥 TVC 영상을 획득하는 일 예를 도시한 도면이다.
도 6을 참조하면, 대상체의 심장 CT 영상(600)이 도시되어 있다.
TVC 영상은 관상동맥 내부 초음파 영상과 근적외선 분광법을 이용하여 획득되며, TVC를 이용하면 도 6에 도시된 바와 같이 관상동맥의 서로 다른 측면에서의 단면도(650 및 660)를 획득할 수 있다.
도 6에 도시된 단면도(650)를 참조하면, 관상동맥의 혈관벽(652)과 혈관벽(652) 내의 침착물(654)의 위치가 도시된다. 특히, 침착물(654)은 혈관벽(652)내에서 협심증을 일으킬 수 있는 위험한 형질의 침착물을 나타낸다.
또한, TVC를 이용함으로써 또 다른 형태의 단면도(660)를 획득할 수 있다. 단면도(660)를 참조하면, 관상동맥 내의 일 단면에 해당하는 IVUS 영상과 더불어, 위험한 형질의 침착물이 형성된 측면에 대한 정보가 IVUS 영상의 가장자리에 표시된다.
일 실시 예에서, 컴퓨터(200)는 심장 CT 영상(600)의 관상동맥 부분(602)을 이용하여 TVC 영상(650 또는 660)을 획득할 수 있다.
심장 CT 영상(600)으로부터 관상동맥의 TVC 영상(650 또는 660)을 획득하기 위한 하나의 단계로서, 관상동맥의 IVUS 영상으로부터 관상동맥의 TVC 영상을 획득할 수 있도록 학습된 모델이 활용될 수 있다.
도 7을 참조하면, 관상동맥의 IVUS 영상으로부터 TVC 영상을 획득할 수 있는 모델을 학습시키기 위한 방법의 일 예가 도시되어 있다.
도 7에는 대상체의 관상동맥의 TVC 영상(700)이 도시되어 있다. TVC 영상(700)은 IVUS를 이용하여 획득할 수 있는 혈관 내부 형태를 나타내는 부분(704)과 NIRS를 이용하여 획득할 수 있는 혈관 내부 침착물의 형질을 나타내는 부분(702)으로 구분될 수 있다.
일 실시 예에서, 컴퓨터(200)는 TVC 영상(700)을 소정의 각도로 자를 수 있다. 예를 들어, 컴퓨터(200)는 도 7에 도시된 바와 같이, TVC 영상(700)을 10도씩 기울어진 직사각형들(710 및 720)로 자를 수 있다.
컴퓨터(200)는 각각의 잘라진 직사각형들에 포함되어 있는, 혈관 내부 침착물의 형질을 나타내는 부분(702)을 이용하여 각각의 잘라진 직사각형들에 포함되어 있는, 혈관 내부 형태가 정상인지 또는 비정상인지 여부를 판단할 수 있다.
예를 들어, 도 7에 도시된 바와 같이 잘라진 각 직사각형들(710 및 720)은 각각 정상 및 비정상으로 라벨링된 학습 데이터(730 및 740)로 가공될 수 있다.
컴퓨터(200)는 라벨링된 학습 데이터(730 및 740)를 이용하여 모델의 학습을 수행한다.
새로운 IVUS 영상이 획득되는 경우, 컴퓨터(200)는 획득된 IVUS 영상을 소정의 각도로 잘라낸 후, 잘라낸 각각의 영상을 학습된 모델에 입력하여 정상 또는 이상 여부를 판단한다.
컴퓨터(200)는 잘라낸 각각의 영상에 대한 판단결과에 기초하여 IVUS 영상으로부터 TVC 영상을 복원할 수 있다.
도 8은 혈관 내 초음파 영상을 분할하는 방법의 일 예를 도시한 도면이다.
도 8을 참조하면, 혈관 내 초음파 영상(800)이 도시되어 있다.
혈관 내 초음파 영상(800)을 입력 데이터 또는 출력 데이터로 이용하여 모델을 학습시키는 데 있어서, 영상(800)의 각 부분을 분할하거나 라벨링할 수 있다.
도 8에 도시된 바와 같이, 영상(800)에는 혈관조직(810), 침착물(820) 및 혈관 내부(830) 영상이 포함된다.
영상(800)은 자동 또는 수동으로 혈관조직(810), 침착물(820) 및 혈관 내부(830)가 구분되거나 라벨링된다.
특히, 침착물(820) 또는 혈관 내부(830)는 관심영역(region of interest)으로 표시되어, 모델이 혈관 내 초음파 영상으로부터 침착물 또는 혈관 내부를 구분할 수 있도록 모델을 학습시키는 데 활용될 수 있다.
도 9는 일 실시 예에 따라 심장 CT 영상으로부터 협심증을 일으키는 관상동맥 구간을 획득하는 방법을 도시한 흐름도이다.
도 9에 도시된 방법은 도 1에 도시된 컴퓨터(200)에서 시계열적으로 처리되는 단계들을 포함하여 구성된다.
심근분획혈류예비력(Fractional Flow Reserve, FFR) 검사는 관상동맥 내의 압력을 측정하여, 관상동맥 내에서 실제로 허혈을 일으키는 구간, 즉 협심증을 일으키는 구간을 판단하기 위한 검사이다.
혈관이 좁아지거나 막혀있는 것처럼 보여도 실제로 허혈을 일으키지는 않을 수도 있고, 별도의 증상이 없거나 운동부하검사도 음성임에도 허혈이 발생하는 경우도 있다.
혈관이 좁다고 하여 반드시 스텐트 시술을 해야 하는 것은 아니며, 그 부작용을 고려하여 실제로 혀혈이 발생하는 부위에 대해서만 시술을 진행하는 것이 바람직할 수 있다. 따라서, 도 1 내지 도 8과 관련하여 설명한 바와 같은 형태적 관찰에서 나아가, 도 9 및 도 10에서는 증상적 의의를 관찰할 수 있는 방법에 대하여 설명한다.
단계 S910에서, 제3 모델이 학습된다. 일 실시 예에서, 제3 모델은 대상체의 심장을 촬영한 CT 영상과 대상체의 FFR 검사 결과를 이용하여 학습된다.
일 실시 예에서, 제3 모델은 대상체의 심장을 촬영한 CT 영상의 적어도 일부를 입력 데이터로 하고, 대상체의 FFR 검사 결과를 출력 데이터로 하여 학습될 수 있다.
단계 S920에서, 컴퓨터(200)는 대상체의 심장 CT 영상을 획득한다.
단계 S930에서, 컴퓨터(200)는 단계 S920에서 획득된 대상체의 심장 CT 영상을 단계 S910에서 학습된 제3 모델에 입력하여, 대상체의 관상동맥에서 협심증을 일으키는 구간을 판단한다.
일 실시 예에서, 컴퓨터(200)는 단계 S920에서 획득된 대상체의 심장 CT 영상을 단계 S910에서 학습된 제3 모델에 입력하여, 대상체의 관상동맥에 대한 FFR 데이터를 획득한다.
도 10에 도시된 바와 같이, 단계 S1010에서 대상체의 심장에 대한 CT 영상이 촬영되고, 필요한 경우 도 1 내지 도 8에서 설명한 바와 같이 관상동맥 내부의 형태적 정보를 획득한다.
단계 S1020에서, 대상체의 관상동맥에서 허혈이 발생하는 부분을 판단하기 위하여 FFR 검사가 진행된다.
일 실시 예에서, 컴퓨터(200)는 단계 S1010에서 획득된 대상체의 심장 CT 영상과 학습된 모델을 이용하여, 대상체의 관상동맥에서 허혈이 발생하는 부분에 대한 정보를 획득할 수 있다(단계 S1015).
본 발명의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 발명이 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.
이상, 첨부된 도면을 참조로 하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야의 통상의 기술자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 제한적이 아닌 것으로 이해해야만 한다.
Claims (10)
- 컴퓨터가 의료영상을 분석하는 방법에 있어서,대상체의 심장을 촬영한 CT 영상을 획득하는 단계; 및상기 획득된 CT 영상을 학습된 제1 모델에 입력하여 상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계; 를 포함하는, 방법.
- 제1 항에 있어서,상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계는,상기 대상체의 관상동맥 내부의 침착물(plaque)에 대한 정보를 획득하는 단계를 포함하는, 방법.
- 제2 항에 있어서,상기 학습된 제1 모델은,대상체의 심장을 촬영한 CT 영상, 대상체의 관상동맥 혈관 내 초음파 영상(IntraVascular UltraSound, IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(Near InfraRed Spectrocopy, NIRS) 결과를 이용하여 학습된 모델인 것을 특징으로 하는, 방법.
- 제1 항에 있어서,상기 대상체의 관상동맥 내부에 대한 정보를 획득하는 단계는,상기 대상체의 관상동맥 내부 형태에 대한 정보를 획득하는 단계를 포함하는, 방법.
- 제4 항에 있어서,상기 학습된 제1 모델은,대상체의 심장을 촬영한 CT 영상 및 대상체의 관상동맥 혈관 내 초음파 영상(IVUS)을 이용하여 학습된 모델인 것을 특징으로 하는, 방법.
- 제4 항에 있어서,상기 관상동맥 내부에 대한 정보를 획득하는 단계는,상기 획득된 관상동맥 내부 형태에 대한 정보를 학습된 제2 모델에 입력하여 상기 관상동맥 내부의 침착물에 대한 정보를 획득하는 단계를 더 포함하는, 방법.
- 제6 항에 있어서,상기 학습된 제2 모델은,대상체의 관상동맥 혈관 내 초음파 영상(IVUS) 및 대상체의 관상동맥 혈관 내의 근적외선 분광법(NIRS) 결과를 이용하여 학습된 모델인 것을 특징으로 하는, 방법.
- 제1 항에 있어서,상기 관상동맥 내부에 대한 정보를 획득하는 단계는,상기 대상체의 관상동맥에서 협심증을 일으키는 구간을 판단하는 단계; 를 더 포함하는, 방법.
- 제8 항에 있어서,상기 학습된 제1 모델은,대상체의 심장을 촬영한 CT 영상 및 대상체의 관상동맥 혈관 내의 심근분획혈류예비력(Fractional Flow Reserve, FFR) 검사결과를 이용하여 학습된 모델인 것을 특징으로 하는, 방법.
- 제1 항 내지 제9 항 중 어느 한 항의 방법을 수행할 수 있도록 컴퓨터에서 읽을 수 있는 기록매체에 저장된 애플리케이션.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170106893A KR102032611B1 (ko) | 2017-08-23 | 2017-08-23 | Ct 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션 |
KR10-2017-0106893 | 2017-08-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019039887A1 true WO2019039887A1 (ko) | 2019-02-28 |
Family
ID=65439140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2018/009742 WO2019039887A1 (ko) | 2017-08-23 | 2018-08-23 | Ct 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102032611B1 (ko) |
WO (1) | WO2019039887A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021162490A3 (ko) * | 2020-02-10 | 2021-09-30 | 주식회사 바디프랜드 | 칼슘 스코어 및 질환을 예측하는 방법 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102272413B1 (ko) * | 2019-08-05 | 2021-07-06 | 재단법인 아산사회복지재단 | 관상동맥 혈관조영술 기반의 기계 학습을 통한 허혈 병변 정보 제공 장치, 정보 제공 방법 및 이의 기록매체 |
KR102190431B1 (ko) | 2020-03-18 | 2020-12-11 | 연세대학교 산학협력단 | 혈관 질환을 판단하는 방법 및 그를 위한 장치 |
KR102217392B1 (ko) * | 2020-07-21 | 2021-02-22 | (주)제이엘케이 | 관상동맥 진단영상 학습장치와 방법, 및 상기 학습장치와 방법을 통해 구축된 학습모델을 사용하는 유의한 관상동맥 협착 진단 장치 및 방법 |
KR102304339B1 (ko) * | 2020-11-27 | 2021-09-23 | 두에이아이(주) | 인공 신경망을 활용하여 혈관 초음파 영상에 대한 분석 정보를 제공하기 위한 방법 및 컴퓨팅 장치 |
KR102656944B1 (ko) * | 2021-12-21 | 2024-04-16 | 주식회사 레이와트 | 기계 학습 기반의 분획혈류예비력 예측 방법 |
KR102693862B1 (ko) * | 2022-02-04 | 2024-08-08 | 연세대학교 산학협력단 | 우쇄골하동맥 이상 예측 방법 및 이를 수행하는 장치 |
KR102678040B1 (ko) | 2022-11-04 | 2024-06-25 | 경북대학교 산학협력단 | Ct 영상의 기계학습에 기반하여 시멘트분진 노출 대상을 분류하는 장치 및 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005534415A (ja) * | 2002-08-05 | 2005-11-17 | インフレアデックス, インク. | 分光分析法によって不安的プラークを判別する不要信号フィルタおよびその方法 |
KR20150068922A (ko) * | 2013-12-12 | 2015-06-22 | 삼성메디슨 주식회사 | 초음파 영상 표시 방법 및 장치 |
JP2016041247A (ja) * | 2014-08-18 | 2016-03-31 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 医療用画像のコンピュータ支援による解析方法 |
KR20160064562A (ko) * | 2014-11-28 | 2016-06-08 | 삼성전자주식회사 | 3d cta영상으로부터 관상동맥의 구조를 모델링하는 방법 및 장치 |
US20160300350A1 (en) * | 2013-08-27 | 2016-10-13 | Heartflow, Inc. | Systems and methods for predicting location, onset, and/or change of coronary lesions |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8315812B2 (en) * | 2010-08-12 | 2012-11-20 | Heartflow, Inc. | Method and system for patient-specific modeling of blood flow |
-
2017
- 2017-08-23 KR KR1020170106893A patent/KR102032611B1/ko active IP Right Grant
-
2018
- 2018-08-23 WO PCT/KR2018/009742 patent/WO2019039887A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005534415A (ja) * | 2002-08-05 | 2005-11-17 | インフレアデックス, インク. | 分光分析法によって不安的プラークを判別する不要信号フィルタおよびその方法 |
US20160300350A1 (en) * | 2013-08-27 | 2016-10-13 | Heartflow, Inc. | Systems and methods for predicting location, onset, and/or change of coronary lesions |
KR20150068922A (ko) * | 2013-12-12 | 2015-06-22 | 삼성메디슨 주식회사 | 초음파 영상 표시 방법 및 장치 |
JP2016041247A (ja) * | 2014-08-18 | 2016-03-31 | シーメンス アクチエンゲゼルシヤフトSiemens Aktiengesellschaft | 医療用画像のコンピュータ支援による解析方法 |
KR20160064562A (ko) * | 2014-11-28 | 2016-06-08 | 삼성전자주식회사 | 3d cta영상으로부터 관상동맥의 구조를 모델링하는 방법 및 장치 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021162490A3 (ko) * | 2020-02-10 | 2021-09-30 | 주식회사 바디프랜드 | 칼슘 스코어 및 질환을 예측하는 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR102032611B1 (ko) | 2019-10-15 |
KR20190021749A (ko) | 2019-03-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019039887A1 (ko) | Ct 영상을 이용하여 심혈관 병변을 판단하는 방법 및 애플리케이션 | |
WO2019135501A1 (ko) | Ivus 영상 분석방법 | |
CN108324246A (zh) | 医疗诊断辅助系统及方法 | |
KR101578770B1 (ko) | 의료 영상 처리 장치 및 그에 따른 의료 영상 처리 방법 | |
KR101664432B1 (ko) | 단층 영상 장치 및 그에 따른 단층 영상 디스플레이 방법 | |
JP6830082B2 (ja) | 歯科分析システムおよび歯科分析x線システム | |
JP2005322252A (ja) | 医用画像表示および画像処理方法、コンピュータ断層撮影装置、ワークステーションおよびコンピュータプログラム製品 | |
JP2010068958A (ja) | X線ct装置、医用画像処理装置および医用画像処理プログラム | |
WO2015147595A1 (ko) | 의료 영상에서 아티팩트와 병변을 구분하는 방법 | |
JP2009106530A (ja) | 医用画像処理装置、医用画像処理方法、及び医用画像診断装置 | |
JP4686279B2 (ja) | 医用診断装置及び診断支援装置 | |
WO2016137157A1 (ko) | 의료 영상 장치 및 의료 영상 처리 방법 | |
Naseera et al. | A review on image processing applications in medical field | |
JP2007222626A (ja) | 医用画像データ内の特異部の自動検出方法および装置 | |
JP2010154982A (ja) | X線コンピュータ断層撮影装置および画像処理装置 | |
WO2017213121A1 (ja) | 医用画像診断装置 | |
JP7032111B2 (ja) | 医用画像処理装置、x線ct装置及び医用画像処理プログラム | |
JP2018027244A (ja) | 放射線画像処理装置 | |
JP6510198B2 (ja) | 医用画像処理装置及び医用画像処理方法 | |
Wang et al. | Unsupervised and quantitative intestinal ischemia detection using conditional adversarial network in multimodal optical imaging | |
US20050148853A1 (en) | Method for supporting navigation of a medical instrument, in particular of a catheter | |
JPH09147082A (ja) | 画像診断支援装置 | |
WO2021251776A1 (ko) | Ct 영상에서의 종양 추적 방법 및 이를 이용한 진단 시스템 | |
Gauci et al. | Principal component analysis for dynamic thermal video analysis | |
KR20210078273A (ko) | 2차원 초음파이미지를 자료로 하는 혈관객체분석방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18848940 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18848940 Country of ref document: EP Kind code of ref document: A1 |