WO2023210893A1 - Apparatus and method for analyzing ultrasound images - Google Patents
Apparatus and method for analyzing ultrasound images Download PDFInfo
- Publication number
- WO2023210893A1 WO2023210893A1 PCT/KR2022/017348 KR2022017348W WO2023210893A1 WO 2023210893 A1 WO2023210893 A1 WO 2023210893A1 KR 2022017348 W KR2022017348 W KR 2022017348W WO 2023210893 A1 WO2023210893 A1 WO 2023210893A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- plaque
- ultrasound image
- image information
- area
- prediction model
- Prior art date
Links
- 238000002604 ultrasonography Methods 0.000 title claims abstract description 164
- 238000000034 method Methods 0.000 title abstract description 15
- 238000010191 image analysis Methods 0.000 claims description 54
- 238000012549 training Methods 0.000 claims description 16
- 238000003703 image analysis method Methods 0.000 claims description 15
- 238000013175 transesophageal echocardiography Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 11
- 238000002372 labelling Methods 0.000 claims description 11
- 238000010200 validation analysis Methods 0.000 claims description 11
- 210000004204 blood vessel Anatomy 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 4
- 208000037260 Atherosclerotic Plaque Diseases 0.000 abstract description 5
- 239000000284 extract Substances 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 11
- 210000000709 aorta Anatomy 0.000 description 7
- 206010008118 cerebral infarction Diseases 0.000 description 7
- 208000026106 cerebrovascular disease Diseases 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 206010065558 Aortic arteriosclerosis Diseases 0.000 description 3
- 208000006011 Stroke Diseases 0.000 description 3
- 208000032109 Transient ischaemic attack Diseases 0.000 description 3
- 201000001962 aortic atherosclerosis Diseases 0.000 description 3
- 238000003062 neural network model Methods 0.000 description 3
- 201000010875 transient cerebral ischemia Diseases 0.000 description 3
- 206010003210 Arteriosclerosis Diseases 0.000 description 2
- 201000001320 Atherosclerosis Diseases 0.000 description 2
- 206010060839 Embolic cerebral infarction Diseases 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000002490 cerebral effect Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 230000002526 effect on cardiovascular system Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 208000014644 Brain disease Diseases 0.000 description 1
- 206010014498 Embolic stroke Diseases 0.000 description 1
- 208000005189 Embolism Diseases 0.000 description 1
- 208000007536 Thrombosis Diseases 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 208000011775 arteriosclerosis disease Diseases 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000001715 carotid artery Anatomy 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000003238 esophagus Anatomy 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000000302 ischemic effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 230000008337 systemic blood flow Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0891—Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5292—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves using additional data, e.g. patient information, image labeling, acquisition parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Definitions
- These embodiments provide an ultrasonic image analysis device and method.
- Cerebral infarction an ischemic brain disease, is caused by narrowing of the inner walls of cerebral blood vessels due to arteriosclerosis, aortic atherosclerotic plaques fall off, or blood clots form in the heart. It can be divided into cases caused by embolic cerebral infarction and cases caused by decreased systemic blood flow. However, cerebral infarction of unknown cause has been reported in 25-40% of cases, and identifying the cause for treatment may be important in the patient's prognosis.
- ultrasound which is used to determine aortic atherosclerosis
- ultrasound is a type of elastic wave that propagates inside the human body, and depending on the physical characteristics of human tissue, it may be reflected or transmitted at the interface of the medium, and amplitude attenuation may occur due to absorption.
- images of internal tissues of the human body can be obtained and the size and characteristics of the tissues can be determined from these images, so ultrasound diagnostic devices are widely used in the medical industry.
- the transesophageal ultrasound examination there may be an error in plaque measurement for each examiner, and there is a problem in that the examination requires rapidity as it is a method of inserting the examination equipment into the esophagus.
- imaging medical diagnostic technology at home and abroad uses ultrasound images, computed tomography (CT), and magnetic resonance imaging (MRI) to diagnose high-risk diseases such as stroke.
- CT computed tomography
- MRI magnetic resonance imaging
- artificial intelligence models to image data such as magnetic resonance imaging, it is used as an important means of shortening the time it takes for doctors to interpret images and deriving accurate results. Accordingly, there is a need for technology that can prevent and manage aortic atherosclerosis, which is emerging as a major cause of embolic stroke, in advance through artificial intelligence models to prevent it from developing into a high-risk disease.
- the present embodiments provide an ultrasound image analysis device and method that can accurately analyze plaque from transesophageal ultrasound image information through an artificial intelligence model.
- the present embodiment provides an ultrasound image analysis device, which acquires ultrasound image information from transesophageal echocardiography information and plaque information included in the blood vessel in the ultrasound image information.
- a learning data generator that generates learning data by labeling, a first prediction model that performs learning based on the generated learning data to classify the plaque state from ultrasound image information, and a second prediction model that extracts the plaque area.
- An ultrasound image analysis device comprising a model generation unit for generating a model and a plaque prediction unit for predicting the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model.
- the present embodiment is an ultrasound image analysis method, in which ultrasound image information is acquired from transesophageal echocardiography information, and plaque information contained in blood vessels in the ultrasound image information is labeled to provide learning data.
- a learning data generation step that generates a model generation step that performs learning based on the generated learning data to generate a first prediction model that classifies the plaque state from ultrasound image information and a second prediction model that extracts the plaque area, and the generated
- An ultrasound image analysis method is provided, which includes a plaque prediction step of predicting the plaque state and plaque area from specific ultrasound image information by applying each prediction model.
- FIG. 1 is a diagram illustrating the configuration of an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 2 is a flowchart illustrating a prediction operation of an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 3 is a diagram illustrating an example for explaining learning data of an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 4 is a diagram illustrating an example for explaining a first prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 5 is a diagram illustrating an example for explaining a second prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 6 is a diagram illustrating an example for explaining the performance of a first prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 7 is a diagram illustrating an example for explaining the performance of a second prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
- FIG. 8 is a flowchart of an ultrasound image analysis method according to an embodiment of the present disclosure.
- Figure 9 is a block diagram of an ultrasound image analysis device according to an embodiment of the present disclosure.
- This disclosure relates to an ultrasound image analysis device and method.
- first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term.
- a component is described as being “connected,” “coupled,” or “connected” to another component, that component may be directly connected or connected to that other component, but there is another component between each component. It will be understood that elements may be “connected,” “combined,” or “connected.”
- FIG. 1 is a diagram illustrating the configuration of an ultrasound image analysis device according to an embodiment of the present disclosure.
- the ultrasound image analysis device 100 acquires ultrasound image information from transesophageal echocardiography information and acquires plaque information included in the blood vessel in the ultrasound image information.
- a learning data generator 110 that generates learning data by labeling, a first prediction model that performs learning based on the generated learning data to classify the plaque state from ultrasound image information, and a second that extracts the plaque area.
- Ultrasound image analysis comprising a model generator 120 that generates a prediction model and a plaque prediction unit 130 that predicts the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model.
- a device 100 is provided.
- the learning data generator 110 may generate learning data by labeling ultrasound image information with plaque information.
- the learning data generator 110 may acquire ultrasound image information from transesophageal echocardiography information and generate learning data by labeling plaque information included in blood vessels in the ultrasound image information.
- Ultrasound image information is the original image included in the information of Transesophageal Echocardiography (TEE), which can take the closest image of the aortic wall of aortic atherosclerotic plaque in patients with cerebral infarction or transient ischemic attack. It could be information.
- TEE Transesophageal Echocardiography
- the plaque information may be information including information about the plaque state or plaque area.
- the learning data generator 110 may classify ultrasound image information into preset plaque states and label the plaque area in the ultrasound image information by displaying it in a specific color to contrast with the surrounding area.
- the plaque state can be preset into two or three categories depending on the plaque shape and thickness.
- the learning data generator 110 divides the plaque state into two categories: complex plaque and non-complex plaque, or three categories: normal, simple plaque, and complex plaque. They can be labeled separately. That is, the learning data generator 110 may label the ultrasound image information as at least one of the preset plaque states: normal, simple plaque, and complex plaque.
- the learning data generator 110 may change the size of the ultrasound image information to a preset pixel and generate learning data by matching the ultrasound image information with label image information labeled with plaque information. Specifically, the learning data generator 110 may change the size of the ultrasound image information to 512 pixels horizontally and vertically, respectively, and generate image information matching the original ultrasound image information and the label image information as learning data. Additionally, the learning data can be divided into a training dataset, a validation dataset, and a validation dataset and used for learning.
- the model generator 120 may generate a first prediction model and a second prediction model that predict plaque information from ultrasound image information.
- the model generator 120 may perform learning based on the generated training data to generate a first prediction model that classifies the plaque state from ultrasound image information and a second prediction model that extracts the plaque area.
- the model generator 120 may calculate the probability of each plaque state from ultrasound image information as a probability and generate a first prediction model that predicts the state predicted with the highest probability as the final plaque state.
- the first prediction model consists of a structure in which a plurality of convolution layers, a flatten layer, and a dense layer are sequentially connected, and a softmax function (Softmax) is applied to the result output from the dense layer. function) can be applied to classify the plaque condition.
- Softmax softmax
- the model generator 120 may generate a second prediction model that extracts the plaque area from ultrasound image information.
- the second prediction model consists of a reduced encoding area and an enlarged decoding area based on a multiple convolutional layer structure, and the plaque area is created by mapping the feature information in the encoding area and concatenating the output result to the decoding area. It can be extracted.
- the model generator 120 may generate a segmentation map by connecting the results output from each layer of the encoding area included in the second prediction model to the input of the same layer in the decoding area. Accordingly, the plaque area can be specifically extracted on a pixel basis from the generated segmentation map.
- the model generator 120 may perform learning of a first prediction model and a second prediction model based on the generated training data.
- the model generator 120 divides the number of learning data into a training dataset, validation dataset, and test dataset according to a preset ratio to learn each prediction model. It can be done.
- the preset ratio may be 6:2:2, but is not limited thereto.
- the plaque prediction unit 130 may predict the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model. For example, the plaque prediction unit 130 calculates the probability of each plaque state by applying the first prediction model with specific ultrasound image information as input, and selects the plaque state with the highest probability among each plaque state as the final plaque state. It can be predicted by state. In addition, the plaque prediction unit 130 generates a segmentation map that minimizes the loss rate by applying a second prediction model to specific ultrasound image information as input, displays the plaque area extracted from the map, and outputs it as predicted image information. there is. In the predicted image information, the plaque area may be displayed in a specific color to contrast with the surrounding area.
- FIG. 2 is a flowchart illustrating a prediction operation of an ultrasound image analysis device according to an embodiment of the present disclosure.
- the learning data generator 110 may label ultrasound image information with plaque information (S210).
- the learning data generator 110 may use the original ultrasound image information obtained from the transesophageal echocardiography information of a patient with cerebral infarction or transient ischemic attack and the label image information in which the plaque area is labeled in the ultrasound image information as learning data. You can.
- This image information may be image information in the form of Digital Imaging and Communications in Medicine (DICOM).
- DICOM Digital Imaging and Communications in Medicine
- the learning data generator 110 may generate learning data by classifying original ultrasound image information for each plaque state for the first prediction model.
- the plaque state can be classified into two preset types (No complex (0), Complex plaque (1)) or three types (Normal (0), Simple plaque (1), Complex plaque (2)).
- the learning data generator 110 may change the size of the ultrasound image information to a preset pixel and generate learning data using image information that matches the original ultrasound image information and label image information.
- the model generator 120 may generate a first prediction model that classifies the plaque condition (S220).
- the model generator 120 is a first prediction model that extracts features by repeating compression and decompression through an encoder and decoder to classify the plaque state using the original ultrasound image information of the aorta. can be created.
- the model generator 120 divides the number of learning data into a training data set, a validation data set, and a test data set according to a preset ratio to determine the number of the first prediction model. Learning can be done.
- the ratio can be set to a value that can increase the accuracy of plaque status classification.
- the training data set, validation data set, and validation data set can be determined to be 922, 307, and 307, respectively.
- the first prediction model can be trained in Google Colab's GPU environment. Details regarding the first prediction model will be described later with reference to FIG. 4 .
- the model generator 120 may generate a second prediction model that extracts the plaque area (S230). For example, the model generator 120 may generate a segmentation map using original ultrasound image information of the aorta and create a second prediction model that extracts the plaque area on a pixel basis. In addition, the model generator 120 divides the number of learning data into a training dataset, a validation dataset, and a test dataset according to a preset ratio to form a second prediction model. Learning can be done. Here, the ratio can be set to a value that can increase the accuracy of the plaque area.
- the training data set, validation data set, and verification data set are 180, respectively. It can be determined as 1, 60, and 60.
- the second prediction model can be designed with a learning rate of 10 -3 , a batch size of 4, and an epoch of 100.
- the second prediction model can be trained in Google Colab to speed up the UNET process. Details regarding the second prediction model will be described later with reference to FIG. 5.
- the plaque prediction unit 130 can predict the plaque state and plaque area from specific ultrasound image information (S240). For example, the plaque prediction unit 130 may predict the plaque state by calculating the probability of each plaque state by applying a first prediction model to specific ultrasound image information as input. Additionally, the plaque prediction unit 130 may predict the plaque area by using specific ultrasound image information as input and extracting the plaque area by applying a second prediction model.
- specific ultrasound image information S240
- the plaque prediction unit 130 may predict the plaque state by calculating the probability of each plaque state by applying a first prediction model to specific ultrasound image information as input. Additionally, the plaque prediction unit 130 may predict the plaque area by using specific ultrasound image information as input and extracting the plaque area by applying a second prediction model.
- FIG. 3 is a diagram illustrating an example for explaining learning data of an ultrasound image analysis device according to an embodiment of the present disclosure.
- the learning data generator 110 of the ultrasound image analysis device may acquire ultrasound image information and generate learning data.
- the learning data generator 110 may classify ultrasound image information into preset plaque states and display the plaque area in the ultrasound image information in a specific color to contrast with the surrounding area to generate label image information.
- the learning data generator 110 may generate learning data by matching ultrasound image information and label image information.
- the learning data generator 110 may classify ultrasound image information by each plaque state (Normal, Simple plaque, Complex) and file type (Dicom, Mark, Nomark, Label) from transesophageal echocardiography information. You can.
- the learning data generator 110 may generate learning data by labeling the original ultrasound image information of the aorta with the plaque status (0, 1, 2) and plaque area determined by the medical staff.
- image information matching the original ultrasound image information and label image information can be used as learning data for the second prediction model.
- FIG. 4 is a diagram illustrating an example for explaining a first prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
- the model generator 120 of the ultrasound image analysis device generates the first prediction model.
- the model generator 120 is composed of a structure in which a plurality of convolution layers 410, a platen layer 420, and a dense layer 430 are sequentially connected, and the result output from the dense layer 430
- the softmax function 440 can be applied to generate a first prediction model that classifies the plaque condition.
- the first prediction model may use original ultrasound image information as input and learn a plurality of convolution layers 410 by approximating the output to the input. Additionally, the first prediction model may extract weights from the learned convolution layer 410.
- the learned convolution layer may consist of four convolution layers, but is not limited to this.
- the first prediction model is sequentially applied to a flatten layer 420 that changes the output information of the convolution layer 410 to one dimension and a dense layer 430 that changes it back to n dimension. It can be applied.
- the first prediction model can input the n-dimensional vector, which is the output information of the dense layer 430, into the Softmax function 440 to estimate the probability of belonging to each class and classify the plaque state.
- the output of the softmax function 440 is a vector with dimensions equal to the number of plaque states to be classified, and the probability of each specific plaque state can be estimated as a value between 0 and 1.
- the first prediction model may be implemented as a convolutional auto encoder model, but is not limited to this as long as it is an artificial neural network algorithm useful for learning spatial features or short temporal features.
- FIG. 5 is a diagram illustrating an example for explaining a second prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
- the model generator 120 of the ultrasound image analysis device generates the second prediction model.
- the model generator 120 consists of a reduced encoding area and an enlarged decoding area based on a plurality of convolutional layer structures, and maps feature information in the encoding area and concatenates the output result to the decoding area.
- the second prediction model can automatically extract the plaque area by segmenting ultrasound image information and labeling it on a pixel basis.
- the second prediction model can be classified into an encoding area where the image is reduced on the left and a decoding area on the right where the image is enlarged based on the symmetrical center.
- the decoding area of the second prediction model may be configured as an up-sampling area by removing the pooling layer and adding an up-convolution filter instead. And, when each encoding area and decoding area are in a horizontal relationship, the second prediction model can concatenate the result output from the encoding area with the decoding area. This connection process is performed by overlapping two pieces of image information based on the channel dimension, and a segmentation map can be created. And, during this process, the second prediction model can specify values at the same location on a pixel basis and extract them as a plaque area.
- the second prediction model may be implemented using U-Net, an image segmentation technique.
- model generator 120 may calculate the number of specific pixels corresponding to specific RGB values in the plaque area output from the second prediction model and extract the number as the area of the plaque area. Additionally, the model generator 120 may calculate the plaque ratio through the ratio of the area of the extracted plaque area to the blood vessel area calculated by the number of pixels for the area displayed with a specific RGB value.
- FIG. 6 is a diagram illustrating an example for explaining the performance of a first prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
- a receiver operating characteristic (ROC) curve 610 is displayed to determine the performance of the first prediction model in predicting the plaque status of the aorta in two types ((no complex(0), complex plaque(1))).
- the model's performance is superior as the AUC (area under the curve) value of the ROC curve is closer to 1.
- the first prediction model is an angle for aortic plaque.
- the AUC for the class can be analyzed as 0.776 and 0.775, and the ACC, which is the accuracy of the ROC curve 610, can be analyzed as 0.88. That is, the AUC, which represents the classification performance of the first prediction model, is about It may be measured lower than the ACC accuracy of 0.77.
- an ROC curve (620) is displayed to determine the performance of the first prediction model in predicting the aortic plaque status in three types (normal (0), simple plaque (1), complex plaque (2)).
- the second prediction model may measure AUC of 0.891, 0.894, and 0.885 for each class for aortic plaque, which is higher than the accuracy ACC of 0.724. Accordingly, when the first prediction model classified plaque status into two types, accuracy (ACC) was higher than AUC, and when it classified plaque status into three types, accuracy (ACC) was lower than the AUC value. can confirm.
- the performance of the first prediction model in predicting the plaque status of the aorta in two forms can be expressed in terms of precision, recall, and F1-score.
- the first prediction model can be analyzed as having a precision of 0.90 for the first indicator, the result predicting that it is not a complex plaque (class 0), and the precision of the result predicting it being a complex plaque (class 1) is 0.65. This means that 90% of the data predicted by the first prediction model to be not complex plaque (class 0) matched the actual results, and 65% of the data predicted to be complex plaque (class 1) matched the actual results.
- the first prediction model may analyze the second indicator, recall, as 0.96 and 0.43, respectively, which means that the first prediction model is not actually a complex plaque (class 0).
- This can mean that among the data, the proportion predicted as not complex plaque (class 0) is 96%, and among the data that is actually complex plaque (class 1), the proportion predicted as complex plaque (class 1) is 43%.
- the F1-score which is the weighted harmonic average of precision and recall, is 0.93 and 0.51 for each class, and the accuracy of predicting aortic plaque status in the two classes is predicted to be about 88%. Accordingly, the prediction performance of the first prediction model may be shown as Table 1.
- FIG. 7 is a diagram illustrating an example for explaining the performance of a second prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
- the second prediction model may extract a plaque area caused by aortic atherosclerosis as a cause of cerebral infarction from ultrasound image information.
- Figure 7 may be a result showing an unlabeled input image for each case according to plaque status, a labeled image indicating a plaque area in the input image, and an output image resulting from learning of the second prediction model.
- the second prediction model connects and learns the input image information and the label image information marked by the medical staff as the plaque area for each case to output predicted image information indicating the plaque area.
- the final loss rate of the second prediction model can be calculated as 0.1942.
- the performance of the second prediction model in predicting the aortic plaque status in three types can be expressed in terms of precision, recall, and F1-score.
- the first prediction model predicted an accuracy of about 72% when classifying plaques into the first branch type, which was lower than the accuracy of about 88% when classifying plaques into two types.
- the prediction performance of the second prediction model can be shown as Table 2.
- FIG. 8 is a flowchart of an ultrasound image analysis method according to an embodiment of the present disclosure.
- the ultrasound image analysis method may include a learning data generation step of generating training data by labeling ultrasound image information with plaque information (S810).
- the ultrasound image analysis device may acquire ultrasound image information from transesophageal echocardiography information and generate learning data by labeling plaque information included in blood vessels in the ultrasound image information.
- Ultrasound image information is the original image included in the information of Transesophageal Echocardiography (TEE), which can take the closest image of the aortic wall of aortic atherosclerotic plaque in patients with cerebral infarction or transient ischemic attack. It could be information.
- TEE Transesophageal Echocardiography
- an ultrasound image analysis device can classify ultrasound image information into preset plaque states and label the plaque area in the acoustic image information by displaying it in a specific color to contrast with the surrounding area. Specifically, the ultrasound image analysis device can classify and label the plaque status into two categories: complex plaque and non-complex plaque, depending on the plaque shape and thickness. Alternatively, the ultrasound image analysis device can label the plaques into three categories: normal, simple plaque, and complex plaque.
- the ultrasound image analysis device may change the size of ultrasound image information to a preset pixel and generate learning data by matching ultrasound image information with label image information labeled with plaque information.
- the ultrasound image analysis device can change the size of the ultrasound image information to 512 pixels horizontally and vertically, respectively, and generate only image information matching the original ultrasound image information and the label image information as learning data.
- the ultrasound image analysis method may include a model generation step of generating a first prediction model and a second prediction model for predicting plaque information from ultrasound image information (S820).
- the ultrasound image analysis device may perform learning based on the generated training data to generate a first prediction model that classifies the plaque state and a second prediction model that extracts the plaque area from ultrasound image information.
- the ultrasound image analysis device may calculate the probability of each plaque state from ultrasound image information as a probability and generate a first prediction model that predicts the state predicted with the highest probability as the final plaque state.
- the first prediction model consists of a structure in which a plurality of convolution layers, a flatten layer, and a dense layer are sequentially connected, and a softmax function (Softmax) is applied to the result output from the dense layer. function) can be applied to classify the plaque condition.
- the ultrasound image analysis device may generate a second prediction model that extracts the plaque area from ultrasound image information.
- the second prediction model consists of a reduced encoding area and an enlarged decoding area based on a multiple convolutional layer structure, and the plaque area is created by mapping the feature information in the encoding area and concatenating the output result to the decoding area. It can be extracted.
- the ultrasound image analysis device may perform learning of a first prediction model and a second prediction model based on generated learning data.
- the ultrasound image analysis device divides the number of learning data into a training dataset, validation dataset, and test dataset according to a preset ratio and performs learning of each prediction model. You can.
- the preset ratio may be 6:2:2, but is not limited thereto.
- the ultrasound image analysis method may include a plaque prediction step of predicting the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model (S830). For example, the ultrasound image analysis device calculates the probability of each plaque state by applying a first prediction model to specific ultrasound image information as input, and selects the plaque state with the highest probability among each plaque state as the final plaque state. It is predictable. Additionally, the ultrasound image analysis device may generate a segmentation map that minimizes the loss rate by applying a second prediction model to specific ultrasound image information as input, display the plaque area extracted from the map, and output it as predicted image information.
- Figure 9 is a block diagram of an ultrasound image analysis device according to an embodiment of the present disclosure.
- the ultrasound image analysis device 100 includes a communication interface 910 and a processor 920.
- the ultrasound image analysis device 100 may further include a memory 930.
- Each component, communication interface 910, processor 920, and memory 930 may be connected to each other through a communication bus.
- a communication bus may include circuitry that connects components to each other and carries communications (e.g., control messages and/or data) between the components.
- the communication interface 910 is a transesophageal echocardiography device that can acquire ultrasound image information of the carotid artery of a cardiovascular patient. Additionally, the communication interface 910 can perform communication with an external device through wireless or wired communication.
- the processor 920 may perform at least one method or an algorithm corresponding to at least one method described above with reference to FIGS. 1 to 8 .
- the processor 920 may be a data processing device implemented in hardware that has a circuit with a physical structure for executing desired operations.
- the intended operations may include code or instructions included in the program.
- data processing devices implemented in hardware include microprocessors, central processing units, processor cores, multi-core processors, and multiprocessors. , may include a Neural Processing Unit (NPU), an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).
- NPU Neural Processing Unit
- ASIC Application-Specific Integrated Circuit
- FPGA Field Programmable Gate Array
- the processor 920 may execute a program and control the ultrasound image analysis device 100.
- Program code executed by the processor 920 may be stored in the memory 930.
- Information about the neural network model may be stored in the internal memory of the processor 920 or in external memory, that is, memory 930.
- the memory 930 may store ultrasound image information of a cardiovascular patient obtained through the communication interface 910.
- Memory 930 may store artificial intelligence models including neural network models.
- the memory 930 may store various information generated during processing of the processor 920 and output information extracted by the processor 920.
- the output information may be a neural network calculation result or a neural network test result.
- the memory 930 may store neural network learning results.
- the neural network learning results may be obtained from the ultrasound image analysis device 100 or may be obtained from an external device.
- the learning results of the neural network model may include weight and bias values.
- the memory 930 can store various data and programs.
- Memory 930 may include volatile memory or non-volatile memory.
- the memory 930 may be equipped with a high-capacity storage medium such as a hard disk to store various data.
- the above-described ultrasound image analysis device 100 may be implemented in the form of a server or PC. Additionally, the ultrasound image analysis device 100 may be implemented as a portable mobile device.
- the present disclosure is not necessarily limited to these embodiments. That is, within the scope of the purpose of the present disclosure, all of the components may be operated by selectively combining one or more of them.
- all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the functions of one or more pieces of hardware. It may be implemented as a computer program having and recorded on a computer-readable medium.
- the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination.
- Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software.
- Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
- Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
- the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Radiology & Medical Imaging (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Vascular Medicine (AREA)
- Physiology (AREA)
- Quality & Reliability (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Analysis (AREA)
Abstract
The present disclosure relates to an apparatus and method for analyzing ultrasound images and, particularly, can provide an apparatus and method for analyzing ultrasound images, wherein atherosclerotic plaque states and plaque areas can be predicted from transesophageal ultrasound image information. Specifically, an apparatus and method for analyzing ultrasound images can be provided wherein plaque states and plaque areas can be predicted by generating and applying a first prediction model for classifying plaque states and a second prediction model for extracting plaque areas.
Description
본 실시예들은 초음파 이미지 분석 장치 및 방법을 제공한다.These embodiments provide an ultrasonic image analysis device and method.
우리나라는 고령화 사회로 접어들면서 노인 인구의 증가로 인해 뇌졸중의 발생이 증가하고 있으며 허혈성 뇌질환인 뇌경색의 경우 뇌 혈관내벽의 동맥경화로 좁아져서 생기는 경우, 대동맥 동맥경화반이 떨어지거나 심장에서 혈전이 발생하여 생기는 색전성 뇌경색, 전신적 혈류저하로 발생하는 경우로 나뉠 수 있다. 그러나 25~40%에서 뇌경색의 원인을 알 수 없는 뇌경색이 보고되고 있으며 치료를 위해 원인을 확인하는 것이 환자의 예후에 중요할 수 있다. 색전성 뇌경색뿐만 아니라 원인을 알 수 없는 뇌경색의 원인으로 대동맥에서 죽상동맥경화증으로 발생하는 지방침착물(죽종 또는 플라크)의 색전증에 의해 뇌혈관을 막아 뇌졸증이 발생할 수 있다는 연구가 수년간 진행되고 있다.As Korea enters an aging society, the incidence of stroke is increasing due to the increase in the elderly population. Cerebral infarction, an ischemic brain disease, is caused by narrowing of the inner walls of cerebral blood vessels due to arteriosclerosis, aortic atherosclerotic plaques fall off, or blood clots form in the heart. It can be divided into cases caused by embolic cerebral infarction and cases caused by decreased systemic blood flow. However, cerebral infarction of unknown cause has been reported in 25-40% of cases, and identifying the cause for treatment may be important in the patient's prognosis. Research has been ongoing for several years to show that not only embolic cerebral infarction, but also cerebral infarction of unknown cause can occur due to embolism of fatty deposits (atheroma or plaque) that occur in the aorta due to atherosclerosis, blocking cerebral blood vessels and causing stroke.
특히, 대동맥 죽상동맥경화증을 판별하기 위해 사용되는 초음파는 일종의 탄성파로 인체 내부로 전파되면서 인체 조직의 물리적 특성에 따라 매질의 경계면에서는 반사되거나 투과되고 흡수로 인해 진폭 감쇠가 일어날 수 있다. 이러한 초음파의 특성을 이용하면 인체 내부 조직의 영상을 얻을 수 있고 이 영상으로부터 조직의 크기나 특성을 결정지을 수 있기 때문에 초음파 진단기기가 의료업계에서 폭넓게 활용되고 있다. 다만, 경식도 초음파 검사는 검사의 특성상 검사자마다 플라크 측정의 오차가 있을 수 있고, 식도로 검사 장비를 삽입하는 방식으로써 검사의 신속함이 필요하다는 문제점이 있다.In particular, ultrasound, which is used to determine aortic atherosclerosis, is a type of elastic wave that propagates inside the human body, and depending on the physical characteristics of human tissue, it may be reflected or transmitted at the interface of the medium, and amplitude attenuation may occur due to absorption. Using these characteristics of ultrasound, images of internal tissues of the human body can be obtained and the size and characteristics of the tissues can be determined from these images, so ultrasound diagnostic devices are widely used in the medical industry. However, due to the nature of the transesophageal ultrasound examination, there may be an error in plaque measurement for each examiner, and there is a problem in that the examination requires rapidity as it is a method of inserting the examination equipment into the esophagus.
반면에, 최근 기계학습 이론의 급속한 발전으로 국내외 영상의료 진단기술에서는 뇌졸중과 같은 고위험성 질병을 진단하기 위해 초음파 영상(ultrasound image), 컴퓨터 단층 촬영(CT: computed tomography), 자기공명영상(MRI: magnetic resonance imaging)과 같은 이미지 영상 데이터에 인공지능 모델을 적용하여 의사의 영상 판독 시 소요되는 시간을 단축하고 정확도 있는 결과를 도출하는데 중요한 수단으로 활용하고 있다. 이에 따라, 색전성 뇌졸중에 주요 원인으로 대두되고 있는 대동맥 죽상동맥경화증을 인공지능 모델을 통해 미리 판별하여 고위험성 질병으로 진전되지 않도록 예방하고 관리할 수 있는 기술을 필요로 하고 있다.On the other hand, with the recent rapid development of machine learning theory, imaging medical diagnostic technology at home and abroad uses ultrasound images, computed tomography (CT), and magnetic resonance imaging (MRI) to diagnose high-risk diseases such as stroke. By applying artificial intelligence models to image data such as magnetic resonance imaging, it is used as an important means of shortening the time it takes for doctors to interpret images and deriving accurate results. Accordingly, there is a need for technology that can prevent and manage aortic atherosclerosis, which is emerging as a major cause of embolic stroke, in advance through artificial intelligence models to prevent it from developing into a high-risk disease.
따라서, 인공지능 모델을 통해 경식도 초음파 이미지 정보로부터 대동맥에서 죽상동맥경화증으로 발생하는 플라크를 정확하게 분석할 수 있는 기술을 필요로 하고 있다. Therefore, there is a need for technology that can accurately analyze plaques caused by atherosclerosis in the aorta from transesophageal ultrasound image information through an artificial intelligence model.
이러한 배경에서, 본 실시예들은 인공지능 모델을 통해 경식도 초음파 이미지 정보로부터 플라크를 정확하게 분석할 수 있는 초음파 이미지 분석 장치 및 방법을 제공하는데 있다.Against this background, the present embodiments provide an ultrasound image analysis device and method that can accurately analyze plaque from transesophageal ultrasound image information through an artificial intelligence model.
전술한 목적을 달성하기 위하여, 일 측면에서, 본 실시예는 초음파 이미지 분석 장치에 있어서, 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성하는 학습 데이터 생성부, 생성된 학습 데이터 기반으로 학습을 수행하여 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성하는 모델 생성부 및 생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측하는 플라크 예측부를 포함하는 것을 특징으로 하는 초음파 이미지 분석 장치를 제공한다.In order to achieve the above-described object, in one aspect, the present embodiment provides an ultrasound image analysis device, which acquires ultrasound image information from transesophageal echocardiography information and plaque information included in the blood vessel in the ultrasound image information. A learning data generator that generates learning data by labeling, a first prediction model that performs learning based on the generated learning data to classify the plaque state from ultrasound image information, and a second prediction model that extracts the plaque area. An ultrasound image analysis device is provided, comprising a model generation unit for generating a model and a plaque prediction unit for predicting the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model.
다른 측면에서, 본 실시예는 초음파 이미지 분석 방법에 있어서, 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성하는 학습 데이터 생성 단계, 생성된 학습 데이터 기반으로 학습을 수행하여 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성하는 모델 생성 단계 및 생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측하는 플라크 예측 단계를 포함하는 것을 특징으로 하는 초음파 이미지 분석 방법을 제공한다. In another aspect, the present embodiment is an ultrasound image analysis method, in which ultrasound image information is acquired from transesophageal echocardiography information, and plaque information contained in blood vessels in the ultrasound image information is labeled to provide learning data. A learning data generation step that generates a model generation step that performs learning based on the generated learning data to generate a first prediction model that classifies the plaque state from ultrasound image information and a second prediction model that extracts the plaque area, and the generated An ultrasound image analysis method is provided, which includes a plaque prediction step of predicting the plaque state and plaque area from specific ultrasound image information by applying each prediction model.
도 1은 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 구성을 도시한 도면이다.1 is a diagram illustrating the configuration of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 2는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 예측 동작을 설명하기 위한 흐름도이다. FIG. 2 is a flowchart illustrating a prediction operation of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 3은 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 학습 데이터를 설명하기 위한 예시를 도시한 도면이다.FIG. 3 is a diagram illustrating an example for explaining learning data of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 4는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 제 1 예측 모델을 설명하기 위한 예시를 도시한 도면이다.FIG. 4 is a diagram illustrating an example for explaining a first prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 5는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 제 2 예측 모델을 설명하기 위한 예시를 도시한 도면이다.FIG. 5 is a diagram illustrating an example for explaining a second prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 6은 본 개시의 일 실시예에 초음파 이미지 분석 장치에서 제 1 예측 모델의 성능을 설명하기 위한 예시를 도시한 도면이다.FIG. 6 is a diagram illustrating an example for explaining the performance of a first prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
도 7은 본 개시의 일 실시예에 초음파 이미지 분석 장치에서 제 2 예측 모델의 성능을 설명하기 위한 예시를 도시한 도면이다.FIG. 7 is a diagram illustrating an example for explaining the performance of a second prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 초음파 이미지 분석 방법의 흐름도이다8 is a flowchart of an ultrasound image analysis method according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 블록도이다. Figure 9 is a block diagram of an ultrasound image analysis device according to an embodiment of the present disclosure.
본 개시는 초음파 이미지 분석 장치 및 방법에 관한 것이다. This disclosure relates to an ultrasound image analysis device and method.
이하, 본 개시의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present disclosure will be described in detail through illustrative drawings. When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description will be omitted.
또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, sequence, or order of the component is not limited by the term. When a component is described as being “connected,” “coupled,” or “connected” to another component, that component may be directly connected or connected to that other component, but there is another component between each component. It will be understood that elements may be “connected,” “combined,” or “connected.”
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다.Hereinafter, the present disclosure will be described in detail with reference to the attached drawings.
도 1은 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 구성을 도시한 도면이다.1 is a diagram illustrating the configuration of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 1을 참조하면, 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치(100)는, 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성하는 학습 데이터 생성부(110), 생성된 학습 데이터 기반으로 학습을 수행하여 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성하는 모델 생성부(120) 및 생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측하는 플라크 예측부(130)를 포함하는 것을 특징으로 하는 초음파 이미지 분석 장치(100)를 제공한다. Referring to FIG. 1, the ultrasound image analysis device 100 according to an embodiment of the present disclosure acquires ultrasound image information from transesophageal echocardiography information and acquires plaque information included in the blood vessel in the ultrasound image information. A learning data generator 110 that generates learning data by labeling, a first prediction model that performs learning based on the generated learning data to classify the plaque state from ultrasound image information, and a second that extracts the plaque area. Ultrasound image analysis comprising a model generator 120 that generates a prediction model and a plaque prediction unit 130 that predicts the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model. A device 100 is provided.
일 실시예에 따른 학습 데이터 생성부(110)는 초음파 이미지 정보에 플라크 정보를 레이블링하여 학습 데이터를 생성할 수 있다. 일 예로, 학습 데이터 생성부(110)는 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성할 수 있다. 초음파 이미지 정보는 뇌경색 환자 또는 일과성 뇌허혈 발작 환자의 대동맥 죽상동맥경화성 플라크(aortic atherosclerotic plaque) 상태를 대동맥벽을 가장 근접해서 촬영할 수 있는 경식도 심초음파 검사(Transesophageal Echocardiography, TEE) 정보에 포함된 원본 이미지 정보일 수 있다. 또한, 플라크 정보는 플라크 상태 또는 플라크 영역에 관한 정보를 포함하는 정보일 수 있다. 예를 들어, 학습 데이터 생성부(110)는 초음파 이미지 정보를 미리 설정된 플라크 상태로 분류하고, 초음파 이미지 정보에서 플라크 영역이 주변 영역과 대비되도록 특정 색상으로 표시하여 레이블링할 수 있다. 여기서, 플라크 상태는 플라크 형상과 두께에 따라 두 분류 또는 세 분류로 미리 설정될 수 있다. 구체적으로, 학습 데이터 생성부(110)는 플라크 상태를 복합성 플라크(complex plaque)인 경우와 그렇지 않은 경우인 두 분류로 구분하거나, 정상(normal), 단순 플라크(simple Plaque), 복합성 플라크 세 분류로 구분하여 레이블링 할 수 있다. 즉, 학습 데이터 생성부(110)는 초음파 이미지 정보를 미리 설정된 플라크 상태인 정상(normal), 단순 플라크(simple Plaque) 및 복합성 플라크(complex plaque) 중 적어도 하나의 상태로 레이블링 할 수 있다. The learning data generator 110 according to one embodiment may generate learning data by labeling ultrasound image information with plaque information. As an example, the learning data generator 110 may acquire ultrasound image information from transesophageal echocardiography information and generate learning data by labeling plaque information included in blood vessels in the ultrasound image information. there is. Ultrasound image information is the original image included in the information of Transesophageal Echocardiography (TEE), which can take the closest image of the aortic wall of aortic atherosclerotic plaque in patients with cerebral infarction or transient ischemic attack. It could be information. Additionally, the plaque information may be information including information about the plaque state or plaque area. For example, the learning data generator 110 may classify ultrasound image information into preset plaque states and label the plaque area in the ultrasound image information by displaying it in a specific color to contrast with the surrounding area. Here, the plaque state can be preset into two or three categories depending on the plaque shape and thickness. Specifically, the learning data generator 110 divides the plaque state into two categories: complex plaque and non-complex plaque, or three categories: normal, simple plaque, and complex plaque. They can be labeled separately. That is, the learning data generator 110 may label the ultrasound image information as at least one of the preset plaque states: normal, simple plaque, and complex plaque.
다른 예를 들어, 학습 데이터 생성부(110)는 초음파 이미지 정보의 사이즈를 미리 설정된 픽셀로 변경하고, 초음파 이미지 정보와 플라크 정보가 레이블링된 레이블 이미지 정보를 매칭하여 학습 데이터를 생성할 수 있다. 구체적으로, 학습 데이터 생성부(110)는 초음파 이미지 정보의 사이즈를 가로 및 세로를 각각 512 픽셀로 변경하고, 초음파 원본 이미지 정보와 레이블 이미지 정보가 매칭되는 이미지 정보를 학습 데이터로 생성할 수 있다. 그리고, 학습 데이터는 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 검증 데이터 세트(validation dataset)로 구분되어 학습에 사용될 수 있다. For another example, the learning data generator 110 may change the size of the ultrasound image information to a preset pixel and generate learning data by matching the ultrasound image information with label image information labeled with plaque information. Specifically, the learning data generator 110 may change the size of the ultrasound image information to 512 pixels horizontally and vertically, respectively, and generate image information matching the original ultrasound image information and the label image information as learning data. Additionally, the learning data can be divided into a training dataset, a validation dataset, and a validation dataset and used for learning.
일 실시예에 따른 모델 생성부(120)는 초음파 이미지 정보로부터 플라크 정보를 예측하는 제 1 예측 모델과 제 2 예측 모델을 생성할 수 있다. 일 예로, 모델 생성부(120)는 생성된 학습 데이터 기반으로 학습을 수행하여 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다. 예를 들어, 모델 생성부(120)는 초음파 이미지 정보로부터 각각의 플라크 상태일 가능성을 확률로 산출하고, 가장 큰 확률로 예측된 상태를 최종 플라크 상태로 예측하는 제 1 예측 모델을 생성할 수 있다. 제 1 예측 모델은 복수의 컨볼루션 레이어(convolution layer), 플래튼 레이어(flatten layer) 및 덴스 레이어(dense layer)가 순차적으로 연결된 구조로 구성되며, 덴스 레이어로부터 출력된 결과에 소프트맥스 함수(Softmax function)를 적용하여 플라크 상태를 분류할 수 있다. The model generator 120 according to one embodiment may generate a first prediction model and a second prediction model that predict plaque information from ultrasound image information. As an example, the model generator 120 may perform learning based on the generated training data to generate a first prediction model that classifies the plaque state from ultrasound image information and a second prediction model that extracts the plaque area. For example, the model generator 120 may calculate the probability of each plaque state from ultrasound image information as a probability and generate a first prediction model that predicts the state predicted with the highest probability as the final plaque state. . The first prediction model consists of a structure in which a plurality of convolution layers, a flatten layer, and a dense layer are sequentially connected, and a softmax function (Softmax) is applied to the result output from the dense layer. function) can be applied to classify the plaque condition.
다른 예를 들어, 모델 생성부(120)는 초음파 이미지 정보에서 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다. 제 2 예측 모델은 복수의 컨볼루션 레이어 구조를 기반으로 축소되는 인코딩 영역과 확대되는 디코딩 영역으로 구성되며, 인코딩 영역에서 특징 정보를 맵핑하여 출력된 결과를 디코딩 영역에 연결(Concatenation)하여 플라크 영역을 추출할 수 있다. 구체적으로, 모델 생성부(120)는 제 2 예측 모델에 포함된 인코딩 영역의 각 레이어로부터 출력된 결과를 디코딩 영역에서 동일한 레이어의 입력으로 연결하여 분할 맵(segmentation map)을 생성할 수 있다. 이에 따라, 플라크 영역은 생성된 분할 맵에서 픽셀 단위로 특정하여 추출될 수 있다. For another example, the model generator 120 may generate a second prediction model that extracts the plaque area from ultrasound image information. The second prediction model consists of a reduced encoding area and an enlarged decoding area based on a multiple convolutional layer structure, and the plaque area is created by mapping the feature information in the encoding area and concatenating the output result to the decoding area. It can be extracted. Specifically, the model generator 120 may generate a segmentation map by connecting the results output from each layer of the encoding area included in the second prediction model to the input of the same layer in the decoding area. Accordingly, the plaque area can be specifically extracted on a pixel basis from the generated segmentation map.
또 다른 예를 들어, 모델 생성부(120)는 생성된 학습 데이터 기반으로 제 1 예측 모델과 제 2 예측 모델의 학습을 수행할 수 있다. 모델 생성부(120)는 학습 데이터의 개수를 미리 설정된 비율에 따라 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 테스트 데이터 세트(test dataset)로 구분하여 각각의 예측 모델의 학습을 수행할 수 있다. 여기서, 미리 설정된 비율은 6:2:2일 수 있으나, 이에 한정되는 것은 아니다. For another example, the model generator 120 may perform learning of a first prediction model and a second prediction model based on the generated training data. The model generator 120 divides the number of learning data into a training dataset, validation dataset, and test dataset according to a preset ratio to learn each prediction model. It can be done. Here, the preset ratio may be 6:2:2, but is not limited thereto.
일 실시예에 따른 플라크 예측부(130)는 생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측할 수 있다. 예를 들어, 플라크 예측부(130)는 특정 초음파 이미지 정보를 입력으로 제 1 예측 모델을 적용하여 각각의 플라크 상태일 확률을 산출하고, 각각의 플라크 상태 중 가장 큰 확률을 갖는 플라크 상태를 최종 플라크 상태로 예측할 수 있다. 또한, 플라크 예측부(130)는 특정 초음파 이미지 정보를 입력으로 제 2 예측 모델을 적용하여 손실율을 최소화하는 분할 맵을 생성하고, 할 맵으로부터 추출된 플라크 영역을 표시하여 예측 이미지 정보로 출력할 수 있다. 예측 이미지 정보에는 플라크 영역이 주변 영역과 대비되도록 특정 색상으로 표시될 수 있다. The plaque prediction unit 130 according to one embodiment may predict the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model. For example, the plaque prediction unit 130 calculates the probability of each plaque state by applying the first prediction model with specific ultrasound image information as input, and selects the plaque state with the highest probability among each plaque state as the final plaque state. It can be predicted by state. In addition, the plaque prediction unit 130 generates a segmentation map that minimizes the loss rate by applying a second prediction model to specific ultrasound image information as input, displays the plaque area extracted from the map, and outputs it as predicted image information. there is. In the predicted image information, the plaque area may be displayed in a specific color to contrast with the surrounding area.
도 2는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 예측 동작을 설명하기 위한 흐름도이다. FIG. 2 is a flowchart illustrating a prediction operation of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 2를 참조하면, 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치(100)가 각각의 예측 모델을 생성하고, 이를 통해 플라크 상태와 플라크 영역을 예측하는 과정을 설명할 수 있다. 일 예로, 학습 데이터 생성부(110)는 초음파 이미지 정보에 플라크(plaque) 정보를 레이블링(labeling)할 수 있다(S210). 예를 들어, 학습 데이터 생성부(110)는 뇌경색 또는 일과성 뇌허혈 발작 환자의 경식도 심초음파 검사 정보로부터 획득한 초음파 원본 이미지 정보와 초음파 이미지 정보에 플라크 영역이 레이블링된 레이블 이미지 정보를 학습 데이터로 활용할 수 있다. 이러한 이미지 정보는 의료용 디지털 영상 및 통신(Digital Imaging and Communications in Medicine, DICOM) 형태의 이미지 정보일 수 있다. 구체적으로, 학습 데이터 생성부(110)는 제 1 예측 모델을 위해 초음파 원본 이미지 정보를 각 플라크 상태 별로 분류하여 학습 데이터를 생성할 수 있다. 여기서, 플라크 상태는 미리 설정된 두 가지 형태(No complex(0), Complex plaque(1)) 또는 세 가지 형태(Normal(0), Simple plaque(1), Complex plaque(2))로 분류될 수 있다. 또한, 학습 데이터 생성부(110)는 초음파 이미지 정보의 사이즈를 미리 설정된 픽셀로 변경하고, 초음파 원본 이미지 정보와 레이블 이미지 정보가 매칭되는 이미지 정보로 학습 데이터를 생성할 수 있다.Referring to FIG. 2, a process in which the ultrasound image analysis device 100 according to an embodiment of the present disclosure generates each prediction model and predicts the plaque state and plaque area through this can be explained. As an example, the learning data generator 110 may label ultrasound image information with plaque information (S210). For example, the learning data generator 110 may use the original ultrasound image information obtained from the transesophageal echocardiography information of a patient with cerebral infarction or transient ischemic attack and the label image information in which the plaque area is labeled in the ultrasound image information as learning data. You can. This image information may be image information in the form of Digital Imaging and Communications in Medicine (DICOM). Specifically, the learning data generator 110 may generate learning data by classifying original ultrasound image information for each plaque state for the first prediction model. Here, the plaque state can be classified into two preset types (No complex (0), Complex plaque (1)) or three types (Normal (0), Simple plaque (1), Complex plaque (2)). . Additionally, the learning data generator 110 may change the size of the ultrasound image information to a preset pixel and generate learning data using image information that matches the original ultrasound image information and label image information.
일 예로, 모델 생성부(120)는 플라크 상태를 분류하는 제 1 예측 모델을 생성할 수 있다(S220). 예를 들어, 모델 생성부(120)는 대동맥의 초음파 원본 이미지 정보를 이용하여 플라크 상태를 분류하기 위해 인코더(encoder)와 디코더(decoder)를 통해 압축과 해제를 반복하며 특징 추출하는 제 1 예측 모델을 생성할 수 있다. 또한, 모델 생성부(120)는 학습 데이터의 개수를 미리 설정된 비율에 따라 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 테스트 데이터 세트(test dataset)로 구분하여 제 1 예측 모델의 학습을 수행할 수 있다. 여기서, 해당 비율은 플라크 상태 분류의 정확도를 높일 수 있는 값으로 설정될 수 있다. 구체적으로, 미리 설정된 비율은 6:2:2이고, 전체 학습 데이터의 개수가 1,536임을 가정한다면, 훈련 데이터 세트, 검증 데이터 세트 및 검증 데이터 세트가 각각 922개, 307개 및 307개로 결정될 수 있다. 또한, 제 1 예측 모델은 Google Colab의 GPU 환경에서 학습을 수행할 수 있다. 제 1 예측 모델에 관한 상세한 내용은 도 4를 참조하여 후술한다. As an example, the model generator 120 may generate a first prediction model that classifies the plaque condition (S220). For example, the model generator 120 is a first prediction model that extracts features by repeating compression and decompression through an encoder and decoder to classify the plaque state using the original ultrasound image information of the aorta. can be created. In addition, the model generator 120 divides the number of learning data into a training data set, a validation data set, and a test data set according to a preset ratio to determine the number of the first prediction model. Learning can be done. Here, the ratio can be set to a value that can increase the accuracy of plaque status classification. Specifically, assuming that the preset ratio is 6:2:2 and the total number of training data is 1,536, the training data set, validation data set, and validation data set can be determined to be 922, 307, and 307, respectively. Additionally, the first prediction model can be trained in Google Colab's GPU environment. Details regarding the first prediction model will be described later with reference to FIG. 4 .
일 예로, 모델 생성부(120)는 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다(S230). 예를 들어, 모델 생성부(120)는 대동맥의 초음파 원본 이미지 정보를 이용하여 분할 맵을 생성하고, 픽셀 단위로 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다. 또한, 모델 생성부(120)는 학습 데이터의 개수를 미리 설정된 비율에 따라 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 테스트 데이터 세트(test dataset)로 구분하여 제 2 예측 모델의 학습을 수행할 수 있다. 여기서, 해당 비율은 플라크 영역의 정확도를 높일 수 있는 값으로 설정될 수 있다. 구체적으로, 미리 설정된 비율은 6:2:2이고, 초음파 원본 이미지 정보와 레이블 이미지 정보가 매칭되는 전체 학습 데이터의 개수가 300임을 가정한다면, 훈련 데이터 세트, 검증 데이터 세트 및 검증 데이터 세트가 각각 180개, 60개 및 60개로 결정될 수 있다. 또한, 제 2 예측 모델은 Learning rate는 10-3 , 배치 사이즈(batch size)는 4, 반복수(epoch)는 100으로 설계될 수 있다. 제 2 예측 모델은 유넷 진행의 속도를 높이기 위해 Google Colab에서 학습을 수행할 수 있다. 제 2 예측 모델에 관한 상세한 내용은 도 5를 참조하여 후술한다. As an example, the model generator 120 may generate a second prediction model that extracts the plaque area (S230). For example, the model generator 120 may generate a segmentation map using original ultrasound image information of the aorta and create a second prediction model that extracts the plaque area on a pixel basis. In addition, the model generator 120 divides the number of learning data into a training dataset, a validation dataset, and a test dataset according to a preset ratio to form a second prediction model. Learning can be done. Here, the ratio can be set to a value that can increase the accuracy of the plaque area. Specifically, assuming that the preset ratio is 6:2:2 and that the total number of learning data matching the ultrasound original image information and label image information is 300, the training data set, validation data set, and verification data set are 180, respectively. It can be determined as 1, 60, and 60. Additionally, the second prediction model can be designed with a learning rate of 10 -3 , a batch size of 4, and an epoch of 100. The second prediction model can be trained in Google Colab to speed up the UNET process. Details regarding the second prediction model will be described later with reference to FIG. 5.
일 예로, 플라크 예측부(130)는 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측할 수 있다(S240). 예를 들어, 플라크 예측부(130)는 특정 초음파 이미지 정보를 입력으로 제 1 예측 모델을 적용하여 각각의 플라크 상태일 확률을 산출함으로써 플라크 상태를 예측할 수 있다. 또한, 플라크 예측부(130)는 특정 초음파 이미지 정보를 입력으로 제 2 예측 모델을 적용하여 플라크 영역을 추출함으로써 플라크 영역을 예측할 수 있다. As an example, the plaque prediction unit 130 can predict the plaque state and plaque area from specific ultrasound image information (S240). For example, the plaque prediction unit 130 may predict the plaque state by calculating the probability of each plaque state by applying a first prediction model to specific ultrasound image information as input. Additionally, the plaque prediction unit 130 may predict the plaque area by using specific ultrasound image information as input and extracting the plaque area by applying a second prediction model.
도 3은 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 학습 데이터를 설명하기 위한 예시를 도시한 도면이다FIG. 3 is a diagram illustrating an example for explaining learning data of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 3을 참조하면, 본 개시의 일 실시 예에 따른 초음파 이미지 분석 장치의 학습 데이터 생성부(110)는 초음파 이미지 정보를 획득하여 학습 데이터를 생성할 수 있다. 일 예로, 학습 데이터 생성부(110)는 초음파 이미지 정보를 미리 설정된 플라크 상태로 분류하고, 초음파 이미지 정보에 플라크 영역이 주변 영역과 대비되도록 특정 색상으로 표시하여 레이블 이미지 정보를 생성할 수 있다. 또한, 학습 데이터 생성부(110)는 초음파 이미지 정보와 레이블 이미지 정보를 매칭하여 학습 데이터를 생성할 수 있다. 예를 들어, 학습 데이터 생성부(110)는 경식도 심초음파 검사 정보로부터 각 플라크 상태(Normal, Simple plaque, Complex) 별 및 파일 형태(Dicom, Mark, Nomark, Label) 별로 초음파 이미지 정보를 분류할 수 있다. 그리고, 학습 데이터 생성부(110)는 대동맥의 초음파 원본 이미지 정보에 의료진에 의해 판단된 플라크 상태(0, 1, 2)와 플라크 영역을 레이블링하여 학습 데이터를 생성할 수 있다. 특히, 초음파 원본 이미지 정보와 레이블 이미지 정보가 매칭되는 이미지 정보는 제 2 예측 모델을 위한 학습 데이터로 활용될 수 있다. Referring to FIG. 3, the learning data generator 110 of the ultrasound image analysis device according to an embodiment of the present disclosure may acquire ultrasound image information and generate learning data. As an example, the learning data generator 110 may classify ultrasound image information into preset plaque states and display the plaque area in the ultrasound image information in a specific color to contrast with the surrounding area to generate label image information. Additionally, the learning data generator 110 may generate learning data by matching ultrasound image information and label image information. For example, the learning data generator 110 may classify ultrasound image information by each plaque state (Normal, Simple plaque, Complex) and file type (Dicom, Mark, Nomark, Label) from transesophageal echocardiography information. You can. Additionally, the learning data generator 110 may generate learning data by labeling the original ultrasound image information of the aorta with the plaque status (0, 1, 2) and plaque area determined by the medical staff. In particular, image information matching the original ultrasound image information and label image information can be used as learning data for the second prediction model.
도 4는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 제 1 예측 모델을 설명하기 위한 예시를 도시한 도면이다.FIG. 4 is a diagram illustrating an example for explaining a first prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 4를 참조하면, 초음파 이미지 분석 장치의 모델 생성부(120)가 제 1 예측 모델을 생성하는 내용을 설명할 수 있다. 일 예로, 모델 생성부(120)는 복수의 컨볼루션 레이어(410), 플래튼 레이어(420) 및 덴스 레이어(430)가 순차적으로 연결된 구조로 구성되며, 덴스 레이어(430)로부터 출력된 결과에 소프트맥스 함수(440)를 적용하여 플라크 상태를 분류하는 제 1 예측 모델을 생성할 수 있다. 예를 들어, 제 1 예측 모델은 초음파 원본 이미지 정보를 입력으로 하고, 출력을 입력에 근사시켜 복수의 컨볼루션 레이어(convolution layer)(410)를 학습시킬 수 있다. 또한, 제 1 예측 모델은 학습된 컨볼루션 레이어(convolution layer)(410)로부터 가중치를 추출할 수 있다. 여기서, 학습된 컨볼루션 레이어는 4개의 컨볼루션 레이어로 구성될 수 있으나, 이에 한정되는 것은 아니다. 그리고, 제 1 예측 모델은 컨볼루션 레이어(410)의 출력 정보를 1차원으로 변경하는 플래튼 레이어(flatten layer)(420)와 다시 n차원으로 변경하는 덴스 레이어(dense layer)(430)에 순차적으로 적용할 수 있다. 그리고, 제 1 예측 모델은 덴스 레이어(430)의 출력 정보인 n차원 벡터을 소프트맥스(Softmax) 함수(440)에 입력하여 각 클래스에 속할 확률을 추정하고 플라크 상태를 분류할 수 있다. 소프트맥스 함수(440)의 출력은 분류하고자 하는 플라크 상태의 갯수만큼 차원을 가지는 벡터이며, 각각의 특정 플라크 상태일 확률이 0과 1사이의 값으로 추정될 수 있다. 여기서, 제 1 예측 모델은 컨볼루션 오토인코더 모델(Convolutional auto Encoder)로 구현될 수 있으나, 공간적 특징 또는 짧은 시간적 특징을 학습하는 데에 유용한 인공신경망 알고리즘이면 이에 한정되는 것은 아니다. Referring to FIG. 4 , it can be explained how the model generator 120 of the ultrasound image analysis device generates the first prediction model. As an example, the model generator 120 is composed of a structure in which a plurality of convolution layers 410, a platen layer 420, and a dense layer 430 are sequentially connected, and the result output from the dense layer 430 The softmax function 440 can be applied to generate a first prediction model that classifies the plaque condition. For example, the first prediction model may use original ultrasound image information as input and learn a plurality of convolution layers 410 by approximating the output to the input. Additionally, the first prediction model may extract weights from the learned convolution layer 410. Here, the learned convolution layer may consist of four convolution layers, but is not limited to this. And, the first prediction model is sequentially applied to a flatten layer 420 that changes the output information of the convolution layer 410 to one dimension and a dense layer 430 that changes it back to n dimension. It can be applied. In addition, the first prediction model can input the n-dimensional vector, which is the output information of the dense layer 430, into the Softmax function 440 to estimate the probability of belonging to each class and classify the plaque state. The output of the softmax function 440 is a vector with dimensions equal to the number of plaque states to be classified, and the probability of each specific plaque state can be estimated as a value between 0 and 1. Here, the first prediction model may be implemented as a convolutional auto encoder model, but is not limited to this as long as it is an artificial neural network algorithm useful for learning spatial features or short temporal features.
도 5는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 제 2 예측 모델을 설명하기 위한 예시를 도시한 도면이다.FIG. 5 is a diagram illustrating an example for explaining a second prediction model of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 5를 참조하면, 초음파 이미지 분석 장치의 모델 생성부(120)가 제 2 예측 모델을 생성하는 내용을 설명할 수 있다. 일 예로, 모델 생성부(120)는 복수의 컨볼루션 레이어 구조를 기반으로 축소되는 인코딩 영역과 확대되는 디코딩 영역으로 구성되며, 인코딩 영역에서 특징 정보를 맵핑하여 출력된 결과를 디코딩 영역에 연결(Concatenation)하여 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다. 예를 들어, 제 2 예측 모델은 초음파 이미지 정보를 분할(segmentation)하고, 픽셀 단위로 라벨링하여 플라크 영역을 자동으로 추출할 수 있다. 구체적으로, 제 2 예측 모델은 대칭되는 형태의 중앙을 기준으로 왼쪽은 이미지가 축소되는 인코딩 영역, 오른쪽은 이미지가 확대되는 디코딩 영역으로 분류될 수 있다. 제 2 예측 모델의 디코딩 영역은 풀링 레이어(pooling Layer)를 제거하고, 대신 합성곱 필터(up-convolution filter)를 추가하여 업 샘플링(Up-Sampling)영역이 구성될 수 있다. 그리고, 제 2 예측 모델은 각각의 인코딩 영역과 디코딩 영역이 수평 관계에 있는 경우, 인코딩 영역에서 출력된 결과를 디코딩 영역과 연결(concatenation)할 수 있다. 이러한 연결 과정은 채널 차원(channel dimension)을 기준으로 두 장의 이미지 정보를 겹치는 형태로 수행되며, 분할 맵(segmentation map)을 생성할 수 있다. 그리고, 제 2 예측 모델은 이 과정에서 픽셀 단위로 서로 같은 위치에 있는 값을 특정하여 플라크 영역으로 추출할 수 있다. 여기서, 제 2 예측 모델은 이미지 분할 기법인 유넷 모델(U-Net)로 구현될 수 있다.Referring to FIG. 5 , it can be explained how the model generator 120 of the ultrasound image analysis device generates the second prediction model. As an example, the model generator 120 consists of a reduced encoding area and an enlarged decoding area based on a plurality of convolutional layer structures, and maps feature information in the encoding area and concatenates the output result to the decoding area. ) to create a second prediction model that extracts the plaque area. For example, the second prediction model can automatically extract the plaque area by segmenting ultrasound image information and labeling it on a pixel basis. Specifically, the second prediction model can be classified into an encoding area where the image is reduced on the left and a decoding area on the right where the image is enlarged based on the symmetrical center. The decoding area of the second prediction model may be configured as an up-sampling area by removing the pooling layer and adding an up-convolution filter instead. And, when each encoding area and decoding area are in a horizontal relationship, the second prediction model can concatenate the result output from the encoding area with the decoding area. This connection process is performed by overlapping two pieces of image information based on the channel dimension, and a segmentation map can be created. And, during this process, the second prediction model can specify values at the same location on a pixel basis and extract them as a plaque area. Here, the second prediction model may be implemented using U-Net, an image segmentation technique.
또한, 모델 생성부(120)는 제 2 예측 모델로부터 출력된 플라크 영역에서 특정 RGB값에 해당되는 특정 픽셀의 수를 계산하여 플라크 영역의 면적으로 추출할 수 있다. 그리고 모델 생성부(120)는 특정 RGB값으로 표시된 영역에 대한 픽셀 수로 계산한 혈관 면적에 대한 추출된 플라크 영역의 면적의 비율을 통해 플라크 비율을 산출할 수도 있다. Additionally, the model generator 120 may calculate the number of specific pixels corresponding to specific RGB values in the plaque area output from the second prediction model and extract the number as the area of the plaque area. Additionally, the model generator 120 may calculate the plaque ratio through the ratio of the area of the extracted plaque area to the blood vessel area calculated by the number of pixels for the area displayed with a specific RGB value.
도 6은 본 개시의 일 실시예에 초음파 이미지 분석 장치에서 제 1 예측 모델의 성능을 설명하기 위한 예시를 도시한 도면이다. FIG. 6 is a diagram illustrating an example for explaining the performance of a first prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
도 6을 참조하면, 전술한 바에 따라 플라크 상태를 예측하는 제 1 예측 모델의 성능을 설명할 수 있다. 일 예로, 제 1 예측 모델이 대동맥의 플라크 상태를 두 가지 형태((no complex(0), complex plaque(1))로 예측한 성능을 파악하기 위해 ROC(receiver operating characteristic) 곡선(610)을 나타낼 수 있다. 그리고, ROC 곡선은 아래 영역인 AUC(area under the curve)의 값이 1에 가까울수록 모델의 성능이 우수하다는 것을 확인할 수 있다. 예를 들어, 제 1 예측 모델은 대동맥 플라크에 대한 각 클래스에 대한 AUC가 0.776과 0.775로 분석될 수 있다. 그리고, ROC 곡선(610)의 정확도(accuracy)인 ACC는 0.88로 분석될 수 있다. 즉, 제 1 예측 모델의 분류 성능을 나타내는 AUC는 약 0.77로 정확도인 ACC보다 낮게 측정될 수 있다.Referring to FIG. 6, the performance of the first prediction model for predicting the plaque state as described above can be explained. As an example, a receiver operating characteristic (ROC) curve 610 is displayed to determine the performance of the first prediction model in predicting the plaque status of the aorta in two types ((no complex(0), complex plaque(1))). In addition, it can be confirmed that the model's performance is superior as the AUC (area under the curve) value of the ROC curve is closer to 1. For example, the first prediction model is an angle for aortic plaque. The AUC for the class can be analyzed as 0.776 and 0.775, and the ACC, which is the accuracy of the ROC curve 610, can be analyzed as 0.88. That is, the AUC, which represents the classification performance of the first prediction model, is about It may be measured lower than the ACC accuracy of 0.77.
다른 일 예로, 제 1 예측 모델이 대동맥의 플라크 상태를 세 가지 형태(normal(0), simple plaque(1), complex plaque(2))로 예측한 성능을 파악하기 위해 ROC 곡선(620)을 나타낼 수 있다. 예를 들어, 제 2 예측 모델은 대동맥 플라크에 대한 각 클래스에 대한 AUC가 0.891, 0.894, 0.885로 정확도 ACC인 0.724보다 높게 측정될 수 있다. 이에 따라, 제 1 예측 모델이 두 가지 형태로 플라크 상태를 분류한 경우는 정확도(ACC)가 AUC보다 높게 나타났고, 세 가지 형태로 플라크를 분류한 경우는 정확도(ACC)가 AUC 값보다 낮게 나타남을 확인할 수 있다.As another example, an ROC curve (620) is displayed to determine the performance of the first prediction model in predicting the aortic plaque status in three types (normal (0), simple plaque (1), complex plaque (2)). You can. For example, the second prediction model may measure AUC of 0.891, 0.894, and 0.885 for each class for aortic plaque, which is higher than the accuracy ACC of 0.724. Accordingly, when the first prediction model classified plaque status into two types, accuracy (ACC) was higher than AUC, and when it classified plaque status into three types, accuracy (ACC) was lower than the AUC value. can confirm.
다른 일 예로, 제 1 예측 모델이 대동맥의 플라크 상태를 두 가지 형태((no complex(0), complex plaque(1))로 예측한 성능을 정밀도, 재현율 및 F1-score로 나타낼 수 있다. 예를 들어, 제 1 예측 모델은 첫 번째 지표인 복합성 플라크가 아니라고 예측한 결과(class 0)의 정밀도(precision)가 0.90이고, 복합성 플라크라고 예측한 결과(class 1)의 정밀도는 0.65로 분석될 수 있다. 이는, 제 1 예측 모델이 복합성 플라크가 아니다(class 0)라고 예측한 데이터의 90%가 실제 결과와 일치했고, 복합성 플라크(class 1)라고 예측한 데이터의 65%가 실제 결과와 일치함을 의미할 수 있다. 다른 예를 들어, 제 1 예측 모델은 두 번째 지표인 재현율(recall)이 각각 0.96과 0.43으로 분석될 수 있다. 이는, 제 1 예측 모델이 실제로 복합성 플라크가 아닌(class 0) 데이터 중에서 복합성 플라크가 아니다(class 0)라고 예측한 비율이 96%이고, 실제로 복합성 플라크(class 1)인 데이터 중에 복합성 플라크(class 1)라고 예측한 비율이 43%임을 의미할 수 있다. 또 다른 예를 들어, 제 1 예측 모델은 정밀도와 재현율의 가중 조화 평균값인 F1-score가 각 분류에 대해 0.93과 0.51이며, 대동맥 플라크 상태를 두 분류로 예측한 정확도(accuracy)는 약 88%로 예측될 수 있다. 이에 따라, 제 1 예측 모델의 예측 성능은 표 1과 같이 나타날 수 있다. As another example, the performance of the first prediction model in predicting the plaque status of the aorta in two forms ((no complex(0), complex plaque(1))) can be expressed in terms of precision, recall, and F1-score. For example, For example, the first prediction model can be analyzed as having a precision of 0.90 for the first indicator, the result predicting that it is not a complex plaque (class 0), and the precision of the result predicting it being a complex plaque (class 1) is 0.65. This means that 90% of the data predicted by the first prediction model to be not complex plaque (class 0) matched the actual results, and 65% of the data predicted to be complex plaque (class 1) matched the actual results. For another example, the first prediction model may analyze the second indicator, recall, as 0.96 and 0.43, respectively, which means that the first prediction model is not actually a complex plaque (class 0). This can mean that among the data, the proportion predicted as not complex plaque (class 0) is 96%, and among the data that is actually complex plaque (class 1), the proportion predicted as complex plaque (class 1) is 43%. Another For example, in the first prediction model, the F1-score, which is the weighted harmonic average of precision and recall, is 0.93 and 0.51 for each class, and the accuracy of predicting aortic plaque status in the two classes is predicted to be about 88%. Accordingly, the prediction performance of the first prediction model may be shown as Table 1.
도 7은 본 개시의 일 실시예에 초음파 이미지 분석 장치에서 제 2 예측 모델의 성능을 설명하기 위한 예시를 도시한 도면이다.FIG. 7 is a diagram illustrating an example for explaining the performance of a second prediction model in an ultrasound image analysis device according to an embodiment of the present disclosure.
도 7을 참조하면, 전술한 바에 따라 플라크 영역을 예측하는 제 2 예측 모델의 성능을 설명할 수 있다. 일 예로, 제 2 예측 모델은 초음파 이미지 정보로부터 뇌경색 원인으로 대동맥 죽상동맥경 화증으로 발생하는 플라크 영역을 추출할 수 있다. 예를 들어, 도 7은 플라크 상태에 따른 각 케이스 별로 레이블이 없는 입력 이미지, 입력 이미지에 플라크 영역을 표시한 레이블 이미지, 제 2 예측 모델의 학습 결과로 나온 출력 이미지를 나타낸 결과일 수 있다. 제 2 예측 모델은 입력 이미지 정보와 의료진이 플라크 영역으로 표기한 레이블 이미지 정보가 각 케이스에 따라 연결 및 학습되어 플라크 영역을 표시한 예측 이미지 정보를 출력할 수 있다. 또한, 테스트(test) 결과, 제 2 예측 모델의 최종 손실율(loss rate)은 0.1942로 계산될 수 있다. Referring to FIG. 7, the performance of the second prediction model for predicting the plaque area can be explained as described above. As an example, the second prediction model may extract a plaque area caused by aortic atherosclerosis as a cause of cerebral infarction from ultrasound image information. For example, Figure 7 may be a result showing an unlabeled input image for each case according to plaque status, a labeled image indicating a plaque area in the input image, and an output image resulting from learning of the second prediction model. The second prediction model connects and learns the input image information and the label image information marked by the medical staff as the plaque area for each case to output predicted image information indicating the plaque area. Additionally, as a result of the test, the final loss rate of the second prediction model can be calculated as 0.1942.
다른 일 예로, 제 2 예측 모델이 대동맥의 플라크 상태를 세 가지 형태(normal(0), simple plaque(1), complex plaque(2))로 예측한 성능을 정밀도, 재현율 및 F1-score로 나타낼 수 있다. 예를 들어, 제 1 예측 모델은 첫 번째 가지 형태로 플라크를 분류했을 때 정확도는 약 72%로 두 가지 플라크 형태로 분류했을 때 정확도 약 88%보다 낮게 예측되었다. 이에 따라, 제 2 예측 모델의 예측 성능은 표 2와 같이 나타날 수 있다. As another example, the performance of the second prediction model in predicting the aortic plaque status in three types (normal (0), simple plaque (1), complex plaque (2)) can be expressed in terms of precision, recall, and F1-score. there is. For example, the first prediction model predicted an accuracy of about 72% when classifying plaques into the first branch type, which was lower than the accuracy of about 88% when classifying plaques into two types. Accordingly, the prediction performance of the second prediction model can be shown as Table 2.
이하에서는 도 1 내지 도 7을 참조하여 설명한 초음파 이미지 분석 장치가 수행할 수 있는 초음파 이미지 분석 방법에 대해서 설명한다.Hereinafter, an ultrasonic image analysis method that can be performed by the ultrasonic image analysis device described with reference to FIGS. 1 to 7 will be described.
도 8은 본 개시의 일 실시예에 따른 초음파 이미지 분석 방법의 흐름도이다8 is a flowchart of an ultrasound image analysis method according to an embodiment of the present disclosure.
도 8을 참조하면, 본 개시의 일 실시예에 따른 초음파 이미지 분석 방법은 초음파 이미지 정보에 플라크 정보를 레이블링하여 학습 데이터를 생성하는 학습 데이터 생성 단계를 포함할 수 있다(S810). 일 예로, 초음파 이미지 분석 장치는 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성할 수 있다. 초음파 이미지 정보는 뇌경색 환자 또는 일과성 뇌허혈 발작 환자의 대동맥 죽상동맥경화성 플라크(aortic atherosclerotic plaque) 상태를 대동맥벽을 가장 근접해서 촬영할 수 있는 경식도 심초음파 검사(Transesophageal Echocardiography, TEE) 정보에 포함된 원본 이미지 정보일 수 있다. 예를 들어, 초음파 이미지 분석 장치는 초음파 이미지 정보를 미리 설정된 플라크 상태로 분류하고, 음파 이미지 정보에서 플라크 영역이 주변 영역과 대비되도록 특정 색상으로 표시하여 레이블링할 수 있다. 구체적으로, 초음파 이미지 분석 장치는 플라크 형상과 두께에 따라 플라크 상태를 복합성 플라크(complex plaque)인 경우와 그렇지 않은 경우인 두 분류로 구분하여 레이블링 할 수 있다. 또는, 초음파 이미지 분석 장치는 정상(normal), 단순 플라크(simple Plaque), 복합성 플라크 세 분류로 구분하여 레이블링 할 수 있다. Referring to FIG. 8, the ultrasound image analysis method according to an embodiment of the present disclosure may include a learning data generation step of generating training data by labeling ultrasound image information with plaque information (S810). As an example, the ultrasound image analysis device may acquire ultrasound image information from transesophageal echocardiography information and generate learning data by labeling plaque information included in blood vessels in the ultrasound image information. Ultrasound image information is the original image included in the information of Transesophageal Echocardiography (TEE), which can take the closest image of the aortic wall of aortic atherosclerotic plaque in patients with cerebral infarction or transient ischemic attack. It could be information. For example, an ultrasound image analysis device can classify ultrasound image information into preset plaque states and label the plaque area in the acoustic image information by displaying it in a specific color to contrast with the surrounding area. Specifically, the ultrasound image analysis device can classify and label the plaque status into two categories: complex plaque and non-complex plaque, depending on the plaque shape and thickness. Alternatively, the ultrasound image analysis device can label the plaques into three categories: normal, simple plaque, and complex plaque.
다른 예를 들어, 초음파 이미지 분석 장치는 초음파 이미지 정보의 사이즈를 미리 설정된 픽셀로 변경하고, 초음파 이미지 정보와 플라크 정보가 레이블링된 레이블 이미지 정보를 매칭하여 학습 데이터를 생성할 수 있다. 구체적으로, 초음파 이미지 분석 장치는 초음파 이미지 정보의 사이즈를 가로 및 세로를 각각 512 픽셀로 변경하고, 초음파 원본 이미지 정보와 레이블 이미지 정보가 매칭되는 이미지 정보만을 학습 데이터로 생성할 수 있다. For another example, the ultrasound image analysis device may change the size of ultrasound image information to a preset pixel and generate learning data by matching ultrasound image information with label image information labeled with plaque information. Specifically, the ultrasound image analysis device can change the size of the ultrasound image information to 512 pixels horizontally and vertically, respectively, and generate only image information matching the original ultrasound image information and the label image information as learning data.
일 실시예에 따른 초음파 이미지 분석 방법은 초음파 이미지 정보로부터 플라크 정보를 예측하는 제 1 예측 모델과 제 2 예측 모델을 생성하는 모델 생성 단계를 포함할 수 있다(S820). 일 예로, 초음파 이미지 분석 장치는 생성된 학습 데이터 기반으로 학습을 수행하여 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다. 예를 들어, 초음파 이미지 분석 장치는 초음파 이미지 정보로부터 각각의 플라크 상태일 가능성을 확률로 산출하고, 가장 큰 확률로 예측된 상태를 최종 플라크 상태로 예측하는 제 1 예측 모델을 생성할 수 있다. 제 1 예측 모델은 복수의 컨볼루션 레이어(convolution layer), 플래튼 레이어(flatten layer) 및 덴스 레이어(dense layer)가 순차적으로 연결된 구조로 구성되며, 덴스 레이어로부터 출력된 결과에 소프트맥스 함수(Softmax function)를 적용하여 플라크 상태를 분류할 수 있다. The ultrasound image analysis method according to one embodiment may include a model generation step of generating a first prediction model and a second prediction model for predicting plaque information from ultrasound image information (S820). As an example, the ultrasound image analysis device may perform learning based on the generated training data to generate a first prediction model that classifies the plaque state and a second prediction model that extracts the plaque area from ultrasound image information. For example, the ultrasound image analysis device may calculate the probability of each plaque state from ultrasound image information as a probability and generate a first prediction model that predicts the state predicted with the highest probability as the final plaque state. The first prediction model consists of a structure in which a plurality of convolution layers, a flatten layer, and a dense layer are sequentially connected, and a softmax function (Softmax) is applied to the result output from the dense layer. function) can be applied to classify the plaque condition.
다른 예를 들어, 초음파 이미지 분석 장치는 초음파 이미지 정보에서 플라크 영역을 추출하는 제 2 예측 모델을 생성할 수 있다. 제 2 예측 모델은 복수의 컨볼루션 레이어 구조를 기반으로 축소되는 인코딩 영역과 확대되는 디코딩 영역으로 구성되며, 인코딩 영역에서 특징 정보를 맵핑하여 출력된 결과를 디코딩 영역에 연결(Concatenation)하여 플라크 영역을 추출할 수 있다. For another example, the ultrasound image analysis device may generate a second prediction model that extracts the plaque area from ultrasound image information. The second prediction model consists of a reduced encoding area and an enlarged decoding area based on a multiple convolutional layer structure, and the plaque area is created by mapping the feature information in the encoding area and concatenating the output result to the decoding area. It can be extracted.
또 다른 예를 들어, 초음파 이미지 분석 장치는 생성된 학습 데이터 기반으로 제 1 예측 모델과 제 2 예측 모델의 학습을 수행할 수 있다. 초음파 이미지 분석 장치는 학습 데이터의 개수를 미리 설정된 비율에 따라 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 테스트 데이터 세트(test dataset)로 구분하여 각각의 예측 모델의 학습을 수행할 수 있다. 여기서, 미리 설정된 비율은 6:2:2일 수 있으나, 이에 한정되는 것은 아니다. As another example, the ultrasound image analysis device may perform learning of a first prediction model and a second prediction model based on generated learning data. The ultrasound image analysis device divides the number of learning data into a training dataset, validation dataset, and test dataset according to a preset ratio and performs learning of each prediction model. You can. Here, the preset ratio may be 6:2:2, but is not limited thereto.
일 실시예에 따른 초음파 이미지 분석 방법은 생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측하는 플라크 예측 단계를 포함할 수 있다(S830). 예를 들어, 초음파 이미지 분석 장치는 특정 초음파 이미지 정보를 입력으로 제 1 예측 모델을 적용하여 각각의 플라크 상태일 확률을 산출하고, 각각의 플라크 상태 중 가장 큰 확률을 갖는 플라크 상태를 최종 플라크 상태로 예측할 수 있다. 또한, 초음파 이미지 분석 장치는 특정 초음파 이미지 정보를 입력으로 제 2 예측 모델을 적용하여 손실율을 최소화하는 분할 맵을 생성하고, 할 맵으로부터 추출된 플라크 영역을 표시하여 예측 이미지 정보로 출력할 수 있다. The ultrasound image analysis method according to one embodiment may include a plaque prediction step of predicting the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model (S830). For example, the ultrasound image analysis device calculates the probability of each plaque state by applying a first prediction model to specific ultrasound image information as input, and selects the plaque state with the highest probability among each plaque state as the final plaque state. It is predictable. Additionally, the ultrasound image analysis device may generate a segmentation map that minimizes the loss rate by applying a second prediction model to specific ultrasound image information as input, display the plaque area extracted from the map, and output it as predicted image information.
도 9는 본 개시의 일 실시예에 따른 초음파 이미지 분석 장치의 블록도이다.Figure 9 is a block diagram of an ultrasound image analysis device according to an embodiment of the present disclosure.
도 9를 참조하면, 일 실시예에 따른 초음파 이미지 분석 장치(100)는 통신 인터페이스(910) 및 프로세서(920)를 포함한다. 초음파 이미지 분석 장치(100)는 메모리(930)를 더 포함할 수 있다. 각 구성 요소, 통신 인터페이스(910), 프로세서(920) 및 메모리(930)는 통신 버스를 통해 서로 연결될 수 있다. 예를 들면, 통신 버스는 구성요소들을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.Referring to FIG. 9, the ultrasound image analysis device 100 according to one embodiment includes a communication interface 910 and a processor 920. The ultrasound image analysis device 100 may further include a memory 930. Each component, communication interface 910, processor 920, and memory 930 may be connected to each other through a communication bus. For example, a communication bus may include circuitry that connects components to each other and carries communications (e.g., control messages and/or data) between the components.
통신 인터페이스(910)는 경식도 심초음파 검사 장치로 심뇌혈관 환자의 경동맥을 촬영한 초음파 이미지 정보를 획득할 수 있다. 또한, 통신 인터페이스(910)는 무선 통신 또는 유선 통신을 통해서 외부 장치의 통신을 수행할 수 있다.The communication interface 910 is a transesophageal echocardiography device that can acquire ultrasound image information of the carotid artery of a cardiovascular patient. Additionally, the communication interface 910 can perform communication with an external device through wireless or wired communication.
프로세서(920)는 도 1 내지 도 8을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(920)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), NPU(Neural Processing Unit), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 920 may perform at least one method or an algorithm corresponding to at least one method described above with reference to FIGS. 1 to 8 . The processor 920 may be a data processing device implemented in hardware that has a circuit with a physical structure for executing desired operations. For example, the intended operations may include code or instructions included in the program. For example, data processing devices implemented in hardware include microprocessors, central processing units, processor cores, multi-core processors, and multiprocessors. , may include a Neural Processing Unit (NPU), an Application-Specific Integrated Circuit (ASIC), and a Field Programmable Gate Array (FPGA).
또한, 프로세서(920)는 프로그램을 실행하고, 초음파 이미지 분석 장치(100)를 제어할 수 있다. 프로세서(920)에 의하여 실행되는 프로그램 코드는 메모리(930)에 저장될 수 있다.Additionally, the processor 920 may execute a program and control the ultrasound image analysis device 100. Program code executed by the processor 920 may be stored in the memory 930.
일 실시예에 따른 신경망 모델에 관한 정보는 프로세서(920) 내부 메모리에 저장되거나, 외부 메모리, 즉 메모리(930)에 저장될 수 있다. 예를 들어, 메모리(930)는 통신 인터페이스(910)를 통해 획득한 심뇌혈관 환자의 초음파 이미지 정보를 저장할 수 있다. 메모리(930)는 신경망 모델을 포함하는 인공 지능 모델을 저장할 수 있다. 또한, 메모리(930)는 프로세서(920)의 처리 과정에서 생성되는 다양한 정보 및 프로세서(920)에 의해 추출된 출력 정보들을 저장할 수 있다. 출력 정보는 신경망 연산 결과 또는 신경망 테스트 결과일 수 있다. 메모리(930)는 신경망 학습 결과를 저장할 수 있다. 신경망 학습 결과는, 초음파 이미지 분석 장치(100)에서 획득한 것일 수도 있고, 외부 장치로부터 획득한 것일 수도 있다. 신경망 모델의 학습 결과는, 가중치 및 바이어스 값을 포함할 수 있다. 이 밖에도, 메모리(930)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(930)는 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. 메모리(930)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종데이터를 저장할 수 있다.Information about the neural network model according to one embodiment may be stored in the internal memory of the processor 920 or in external memory, that is, memory 930. For example, the memory 930 may store ultrasound image information of a cardiovascular patient obtained through the communication interface 910. Memory 930 may store artificial intelligence models including neural network models. Additionally, the memory 930 may store various information generated during processing of the processor 920 and output information extracted by the processor 920. The output information may be a neural network calculation result or a neural network test result. The memory 930 may store neural network learning results. The neural network learning results may be obtained from the ultrasound image analysis device 100 or may be obtained from an external device. The learning results of the neural network model may include weight and bias values. In addition, the memory 930 can store various data and programs. Memory 930 may include volatile memory or non-volatile memory. The memory 930 may be equipped with a high-capacity storage medium such as a hard disk to store various data.
전술한 초음파 이미지 분석 장치(100)는 서버 또는 PC 형태로 구현될 수 있다. 또한, 초음파 이미지 분석 장치(100)는 휴대 가능한 모바일 기기로 구현될 수도 있다. The above-described ultrasound image analysis device 100 may be implemented in the form of a server or PC. Additionally, the ultrasound image analysis device 100 may be implemented as a portable mobile device.
이상에서, 본 개시의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시가 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체 (magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In the above, even though all the components constituting the embodiments of the present disclosure have been described as being combined or operated in combination, the present disclosure is not necessarily limited to these embodiments. That is, within the scope of the purpose of the present disclosure, all of the components may be operated by selectively combining one or more of them. In addition, although all of the components may be implemented as a single independent hardware, a program module in which some or all of the components are selectively combined to perform some or all of the functions of one or more pieces of hardware. It may be implemented as a computer program having and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In addition, terms such as “include,” “comprise,” or “have” as used above mean that the corresponding component may be included, unless specifically stated to the contrary, and thus do not exclude other components. Rather, it should be interpreted as being able to include other components. All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which this disclosure pertains. Commonly used terms, such as terms defined in a dictionary, should be interpreted as consistent with the context meaning of the related technology, and should not be interpreted in an idealized or overly formal sense unless explicitly defined in the present disclosure.
이상의 설명은 본 개시의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 개시에 개시된 실시 예들은 본 개시의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 개시의 기술 사상의 범위가 한정되는 것은 아니다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative explanation of the technical idea of the present disclosure, and those skilled in the art will be able to make various modifications and variations without departing from the essential characteristics of the present disclosure. Accordingly, the embodiments disclosed in the present disclosure are not intended to limit the technical idea of the present disclosure but are for illustrative purposes, and the scope of the technical idea of the present disclosure is not limited by these embodiments. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of this disclosure.
CROSS-REFERENCE TO RELATED APPLICATIONCROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2022년 04월 28일 한국에 출원한 특허출원번호 제 10-2022-0053044 호에 대해 미국 특허법 119(a)조 (35 U.S.C § 119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하면 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.This patent application claims priority under Article 119(a) of the U.S. Patent Act (35 U.S.C § 119(a)) to Patent Application No. 10-2022-0053044 filed in Korea on April 28, 2022. All contents are hereby incorporated by reference into this patent application. In addition, if this patent application claims priority for a country other than the United States for the same reasons as above, the entire contents thereof will be incorporated into this patent application by reference.
Claims (14)
- 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 상기 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성하는 학습 데이터 생성부;a learning data generator that acquires ultrasound image information from transesophageal echocardiography information and generates learning data by labeling plaque information contained in blood vessels in the ultrasound image information;생성된 학습 데이터 기반으로 학습을 수행하여 상기 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성하는 모델 생성부; 및a model generator that performs learning based on the generated training data to generate a first prediction model for classifying a plaque state and a second prediction model for extracting a plaque area from the ultrasound image information; and생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측하는 플라크 예측부;를 포함하는 것을 특징으로 하는 초음파 이미지 분석 장치.An ultrasound image analysis device comprising a plaque prediction unit that predicts the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model.
- 제 1 항에 있어서,According to claim 1,상기 학습 데이터 생성부는,The learning data generator,상기 초음파 이미지 정보를 미리 설정된 플라크 상태로 분류하고, 상기 초음파 이미지 정보에서 플라크 영역이 주변 영역과 대비되도록 특정 색상으로 표시하여 레이블링하는 것을 특징으로 하는 초음파 이미지 분석 장치. An ultrasound image analysis device that classifies the ultrasound image information into preset plaque states and labels the plaque area in the ultrasound image information by displaying it in a specific color to contrast with the surrounding area.
- 제 1 항에 있어서,According to claim 1,상기 학습 데이터 생성부는,The learning data generator,상기 초음파 이미지 정보의 사이즈를 미리 설정된 픽셀로 변경하고, 상기 초음파 이미지 정보와 플라크 정보가 레이블링된 레이블 이미지 정보를 매칭하여 학습 데이터를 생성하는 것을 특징으로 하는 초음파 이미지 분석 장치. An ultrasound image analysis device that changes the size of the ultrasound image information to a preset pixel and generates learning data by matching the ultrasound image information with label image information labeled with plaque information.
- 제 1 항에 있어서,According to claim 1,상기 플라크 상태는,The plaque condition is,정상(normal), 단순 플라크(simple Plaque) 및 복합성 플라크(complex plaque) 중 적어도 하나의 상태인 것을 특징으로 하는 초음파 이미지 분석 장치.An ultrasound image analysis device characterized in that it is in at least one of normal, simple plaque, and complex plaque states.
- 제 1 항에 있어서,According to claim 1,상기 제 1 예측 모델은,The first prediction model is,복수의 컨볼루션 레이어(convolution layer), 플래튼 레이어(flatten layer) 및 덴스 레이어(dense layer)가 순차적으로 연결된 구조로 구성되며, 상기 덴스 레이어로부터 출력된 결과에 소프트 맥스 함수(Softmax function)를 적용하여 상기 플라크 상태를 분류하는 것을 특징으로 하는 초음파 이미지 분석 장치. It consists of a structure in which a plurality of convolution layers, a flatten layer, and a dense layer are sequentially connected, and a softmax function is applied to the results output from the dense layer. An ultrasound image analysis device characterized by classifying the plaque condition.
- 제 1 항에 있어서,According to claim 1,상기 제 2 예측 모델은,The second prediction model is,복수의 컨볼루션 레이어 구조를 기반으로 축소되는 인코딩 영역과 확대되는 디코딩 영역으로 구성되며, 상기 인코딩 영역에서 특징 정보를 맵핑하여 출력된 결과를 상기 디코딩 영역에 연결(Concatenation)하여 상기 플라크 영역을 추출하는 것을 특징으로 하는 초음파 이미지 분석 장치. It consists of an encoding area that is reduced and a decoding area that is enlarged based on a plurality of convolutional layer structures, and the result output by mapping feature information in the encoding area is concatenated to the decoding area to extract the plaque area. Ultrasound image analysis device, characterized in that.
- 제 1 항에 있어서,According to claim 1,상기 모델 생성부는,The model creation unit,상기 학습 데이터의 개수를 미리 설정된 비율에 따라 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 테스트 데이터 세트(test dataset)로 구분하여 학습을 수행하는 것을 특징으로 하는 초음파 이미지 분석 장치.An ultrasound image analysis device characterized in that learning is performed by dividing the number of learning data into a training dataset, validation dataset, and test dataset according to a preset ratio.
- 경식도 심초음파 검사 정보로부터 초음파 이미지 정보를 획득하고, 상기 초음파 이미지 정보에 혈관 내 포함되는 플라크(plaque) 정보를 레이블링(labeling) 하여 학습 데이터를 생성하는 학습 데이터 생성 단계;A learning data generation step of obtaining ultrasound image information from transesophageal echocardiography information and generating learning data by labeling plaque information included in blood vessels in the ultrasound image information;생성된 학습 데이터 기반으로 학습을 수행하여 상기 초음파 이미지 정보로부터 플라크 상태를 분류하는 제 1 예측 모델과 플라크 영역을 추출하는 제 2 예측 모델을 생성하는 모델 생성 단계; 및 A model generation step of performing learning based on the generated training data to generate a first prediction model for classifying a plaque state and a second prediction model for extracting a plaque area from the ultrasound image information; and생성된 각각의 예측 모델을 적용하여 특정 초음파 이미지 정보에서 플라크 상태와 플라크 영역을 예측하는 플라크 예측 단계;를 포함하는 것을 특징으로 하는 초음파 이미지 분석 방법.An ultrasound image analysis method comprising a plaque prediction step of predicting the plaque state and plaque area from specific ultrasound image information by applying each generated prediction model.
- 제 8 항에 있어서,According to claim 8,상기 학습 데이터 생성 단계는,The learning data generation step is,상기 초음파 이미지 정보를 미리 설정된 플라크 상태로 분류하고, 상기 초음파 이미지 정보에서 플라크 영역이 주변 영역과 대비되도록 특정 색상으로 표시하여 레이블링하는 것을 특징으로 하는 초음파 이미지 분석 방법.An ultrasound image analysis method characterized by classifying the ultrasound image information into preset plaque states and labeling the plaque area in the ultrasound image information by marking it with a specific color to contrast with the surrounding area.
- 제 8 항에 있어서,According to claim 8,상기 학습 데이터 생성 단계는,The learning data generation step is,상기 초음파 이미지 정보의 사이즈를 미리 설정된 픽셀로 변경하고, 상기 초음파 이미지 정보와 플라크 정보가 레이블링된 레이블 이미지 정보를 매칭하여 학습 데이터를 생성하는 것을 특징으로 하는 초음파 이미지 분석 방법.An ultrasound image analysis method characterized by changing the size of the ultrasound image information to a preset pixel and generating learning data by matching the ultrasound image information with label image information labeled with plaque information.
- 제 8 항에 있어서, According to claim 8,상기 플라크 상태는,The plaque condition is,정상(normal), 단순 플라크(simple Plaque) 및 복합성 플라크(complex plaque) 중 적어도 하나의 상태인 것을 특징으로 하는 초음파 이미지 분석 방법.An ultrasound image analysis method, characterized in that the state is at least one of normal, simple plaque, and complex plaque.
- 제 8 항에 있어서,According to claim 8,상기 제 1 예측 모델은,The first prediction model is,복수의 컨볼루션 레이어(convolution layer), 플래튼 레이어(flatten layer) 및 덴스 레이어(dense layer)가 순차적으로 연결된 구조로 구성되며, 상기 덴스 레이어로부터 출력된 결과에 소프트맥스 함수(Softmax function)를 적용하여 상기 플라크 상태를 분류하는 것을 특징으로 하는 초음파 이미지 분석 방법.It consists of a structure in which a plurality of convolution layers, a flatten layer, and a dense layer are sequentially connected, and a softmax function is applied to the results output from the dense layer. An ultrasound image analysis method characterized by classifying the plaque condition.
- 제 8 항에 있어서,According to claim 8,상기 제 2 예측 모델은,The second prediction model is,복수의 컨볼루션 레이어 구조를 기반으로 축소되는 인코딩 영역과 확대되는 디코딩 영역으로 구성되며, 상기 인코딩 영역에서 특징 정보를 맵핑하여 출력된 결과를 상기 디코딩 영역에 연결(Concatenation)하여 상기 플라크 영역을 추출하는 것을 특징으로 하는 초음파 이미지 분석 방법.It consists of an encoding area that is reduced and a decoding area that is enlarged based on a plurality of convolutional layer structures, and the result output by mapping feature information in the encoding area is concatenated to the decoding area to extract the plaque area. Ultrasound image analysis method, characterized in that.
- 제 8 항에 있어서,According to claim 8,상기 모델 생성 단계는,The model creation step is,상기 학습 데이터의 개수를 미리 설정된 비율에 따라 훈련 데이터 세트(train dataset), 검증 데이터 세트(validation dataset) 및 테스트 데이터 세트(test dataset)로 구분하여 학습을 수행하는 것을 특징으로 하는 초음파 이미지 분석 방법.An ultrasound image analysis method, characterized in that learning is performed by dividing the number of learning data into a training dataset, validation dataset, and test dataset according to a preset ratio.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2022-0053044 | 2022-04-28 | ||
KR1020220053044A KR20230153166A (en) | 2022-04-28 | 2022-04-28 | Apparatus and method for analyzing ultrasonography |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2023210893A1 true WO2023210893A1 (en) | 2023-11-02 |
Family
ID=88519059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2022/017348 WO2023210893A1 (en) | 2022-04-28 | 2022-11-07 | Apparatus and method for analyzing ultrasound images |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20230153166A (en) |
WO (1) | WO2023210893A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111950388A (en) * | 2020-07-22 | 2020-11-17 | 上海市同仁医院 | Vulnerable plaque tracking and identifying system and method |
KR102212499B1 (en) * | 2018-01-03 | 2021-02-04 | 주식회사 메디웨일 | Ivus image analysis method |
KR20210016860A (en) * | 2019-08-05 | 2021-02-17 | 재단법인 아산사회복지재단 | Diagnostic system for diagnosing coronary artery lesions through ultrasound image-based machine learning and the diagnostic method thereof |
KR102370167B1 (en) * | 2021-10-25 | 2022-03-04 | 주식회사 파인트리시스템 | Assistance system for diagnosing ultrasound based on artificial intelligence. |
KR20220036321A (en) * | 2020-09-15 | 2022-03-22 | 주식회사 아이도트 | Ultrasound diagnostic system |
-
2022
- 2022-04-28 KR KR1020220053044A patent/KR20230153166A/en not_active Application Discontinuation
- 2022-11-07 WO PCT/KR2022/017348 patent/WO2023210893A1/en unknown
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102212499B1 (en) * | 2018-01-03 | 2021-02-04 | 주식회사 메디웨일 | Ivus image analysis method |
KR20210016860A (en) * | 2019-08-05 | 2021-02-17 | 재단법인 아산사회복지재단 | Diagnostic system for diagnosing coronary artery lesions through ultrasound image-based machine learning and the diagnostic method thereof |
CN111950388A (en) * | 2020-07-22 | 2020-11-17 | 上海市同仁医院 | Vulnerable plaque tracking and identifying system and method |
KR20220036321A (en) * | 2020-09-15 | 2022-03-22 | 주식회사 아이도트 | Ultrasound diagnostic system |
KR102370167B1 (en) * | 2021-10-25 | 2022-03-04 | 주식회사 파인트리시스템 | Assistance system for diagnosing ultrasound based on artificial intelligence. |
Also Published As
Publication number | Publication date |
---|---|
KR20230153166A (en) | 2023-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113496495B (en) | Medical image segmentation model building method capable of realizing missing input and segmentation method | |
CN112561908B (en) | Mammary gland image focus matching method, device and storage medium | |
CN109447985B (en) | Colonoscope image analysis method and device and readable storage medium | |
WO2018155765A1 (en) | Method and device analyzing plaque from computed tomography image | |
CN114782307A (en) | Enhanced CT image colorectal cancer staging auxiliary diagnosis system based on deep learning | |
WO2019098415A1 (en) | Method for determining whether subject has developed cervical cancer, and device using same | |
WO2019143179A1 (en) | Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same | |
CN117253611B (en) | Intelligent early cancer screening method and system based on multi-modal knowledge distillation | |
Li et al. | Optical coherence tomography vulnerable plaque segmentation based on deep residual U-Net | |
WO2024103284A1 (en) | Survival analysis method and system for brain tumor patient | |
CN116705300A (en) | Medical decision assistance method, system and storage medium based on sign data analysis | |
CN114565572A (en) | Cerebral hemorrhage CT image classification method based on image sequence analysis | |
TW202346826A (en) | Image processing method | |
Qiao et al. | SPReCHD: Four-chamber semantic parsing network for recognizing fetal congenital heart disease in medical metaverse | |
Wang et al. | Automatic evaluation of endometrial receptivity in three-dimensional transvaginal ultrasound images based on 3D U-Net segmentation | |
Pham et al. | Chest x-rays abnormalities localization and classification using an ensemble framework of deep convolutional neural networks | |
WO2021054700A1 (en) | Method for providing tooth lesion information, and device using same | |
Li et al. | FHUSP-NET: a multi-task model for fetal heart ultrasound standard plane recognition and key anatomical structures detection | |
WO2023210893A1 (en) | Apparatus and method for analyzing ultrasound images | |
Hussein et al. | Myositis Detection From Muscle Ultrasound Images Using a Proposed YOLO-CSE Model | |
CN111798452A (en) | Carotid artery handheld ultrasonic image segmentation method, system and device | |
CN116664592A (en) | Image-based arteriovenous blood vessel separation method and device, electronic equipment and medium | |
CN116934683A (en) | Method for assisting ultrasonic diagnosis of spleen wound by artificial intelligence | |
WO2022145988A1 (en) | Apparatus and method for facial fracture reading using artificial intelligence | |
Zhang et al. | Novel coronavirus pneumonia detection and segmentation based on the deep-learning method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22940387 Country of ref document: EP Kind code of ref document: A1 |