WO2024049208A1 - 복부 내 공기 분포를 측정하는 장치 및 방법 - Google Patents

복부 내 공기 분포를 측정하는 장치 및 방법 Download PDF

Info

Publication number
WO2024049208A1
WO2024049208A1 PCT/KR2023/012913 KR2023012913W WO2024049208A1 WO 2024049208 A1 WO2024049208 A1 WO 2024049208A1 KR 2023012913 W KR2023012913 W KR 2023012913W WO 2024049208 A1 WO2024049208 A1 WO 2024049208A1
Authority
WO
WIPO (PCT)
Prior art keywords
abdomen
image
air
abdominal
images
Prior art date
Application number
PCT/KR2023/012913
Other languages
English (en)
French (fr)
Inventor
임선교
이정훈
조숙현
Original Assignee
아주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교 산학협력단 filed Critical 아주대학교 산학협력단
Publication of WO2024049208A1 publication Critical patent/WO2024049208A1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Definitions

  • This disclosure relates to devices and methods for measuring air distribution within the abdomen.
  • CT Computer Tomography
  • MR Magnetic Resonance
  • the abdomen is the widest part of the human body, has the most organs, and can show various diseases and symptoms.
  • Abdominal diseases generally can cause a variety of symptoms, such as abdominal pain, discomfort, indigestion, nausea, vomiting, abdominal bloating, diarrhea, constipation, severe acute pain, tenderness, hematemesis, bloody stool, and jaundice.
  • abdominal imaging diagnosis examinations are performed in various ways depending on the area, using X-ray general abdominal imaging, abdominal contrast, ultrasound, CT, and MRI.
  • General abdominal imaging (X-ray) is used to determine the presence of stones and to analyze air shading in the gastrointestinal tract, and is mainly performed on patients with acute abdominal pain or pediatric abdominal pain.
  • Abdominal angiography diagnoses gastrointestinal diseases through various tests such as gastrointestinal angiography, small intestine angiography, colon angiography, and cholangiography.
  • the air distribution pattern within the abdomen changes not only due to external factors such as endoscopy and other procedures, but also due to various causes such as structural problems such as obstruction of the patient's gastrointestinal tract and functional decline.
  • a person had to directly interpret the air pattern in the abdomen from images. Therefore, there was variability between interpreters and there were limitations in quantifying the distribution of air in the abdomen.
  • This application aims to solve the problems of the prior art described above.
  • a new image is created by transforming the abdominal image and masking image, and the air area in the abdomen is divided through learning.
  • the purpose is to provide a device that divides the air area in an image of a subject's abdomen by creating a model and outputs an image predicting the air area in the segmented subject's abdomen or a result of calculating the amount of air.
  • an apparatus for measuring air distribution in the abdomen includes an image acquisition unit that acquires an abdominal image and a masking image in which the air area is pre-marked in the abdominal image; An image generator for generating a plurality of images by modifying the abdominal image and the masking image, a model generator for generating a model for dividing the air region in the abdomen by learning the plurality of generated images, and an image of the subject's abdomen A division unit that divides the air area in the abdomen by inputting it into the created model, a prediction mask image that divides the segmented air area in the subject's abdomen according to depth, or a result of calculating the amount of air in the subject's abdomen is output. It may include an output unit.
  • the image generator may transform each of the abdomen images and the masking images multiple times to generate the plurality of images including a plurality of abdomen images and a plurality of masking images.
  • the model generator learns the plurality of abdominal images and the plurality of masking images to generate a mask that predicts the air area in the abdomen, and creates a model for dividing the air area in the abdomen based on the generated mask. .
  • the device for measuring air distribution within the abdomen may further include an evaluation unit that calculates an evaluation index between the masking image and the prediction mask image and evaluates prediction performance.
  • the output unit may output the prediction mask image when the evaluation index is greater than or equal to a preset value.
  • the predicted mask image may be expressed by dividing light and dark values according to the depth of air in the abdomen.
  • the output unit may output a result of calculating the amount of air in the abdomen based on the brightness value of the prediction mask image.
  • the output unit may output a prediction mask image color-coded according to the depth of air in the abdomen based on the brightness value of the prediction mask image.
  • the device for measuring air distribution in the abdomen has a diagnostic unit that derives a result of the presence or absence of an abnormality in the abdomen of the subject based on the calculated amount of air and diagnoses a possible disease of the subject in connection with the prediction result. More may be included.
  • the diagnosis unit determines whether there is an abnormality in the abdominal organ by determining whether it is greater than a preset value based on the calculated amount of air in the abdomen, and determines whether there is an abnormality in the intra-abdominal organ based on the color-coded prediction mask image. Areas with this can be diagnosed.
  • the method of measuring air distribution in the abdomen obtaining an abdominal image and a masking image in which an air area is pre-marked in the abdominal image, generating a plurality of images by modifying the abdominal image and the masking image, Generating a model for dividing the air area within the abdomen by learning a plurality of generated images, inputting an image of the subject's abdomen into the generated model to segment the air area within the abdomen,
  • the divided abdomen of the subject It may include outputting a predicted mask image in which the inner air area is divided according to depth or a result of calculating the amount of air in the subject's abdomen.
  • the air area in the abdomen can be more accurately distinguished by securing a large number of learning data through image augmentation of the abdominal image and learning the artificial intelligence model.
  • the user can easily distinguish the air area within the abdomen by outputting the predicted air area within the abdomen by color classification according to the depth.
  • FIG. 1 is a schematic diagram of a device for measuring air distribution in the abdomen according to an embodiment of the present application.
  • Figure 2 is a diagram schematically showing the creation of a masking image by pre-marking an air area on an abdominal image according to an embodiment of the present application.
  • Figure 3 is a diagram illustrating an exemplary masking image generated from a plurality of abdominal images according to an embodiment of the present application.
  • Figure 4 is a diagram illustrating a modified abdominal image and a masking image according to an embodiment of the present application.
  • Figure 5 is a diagram illustrating the results of predicting the air area within the abdomen by learning a plurality of modified images according to an embodiment of the present application.
  • Figure 6 is a diagram illustrating a prediction mask image expressed by dividing light and dark values according to the depth of air in the abdomen according to an embodiment of the present application.
  • Figure 7 is a diagram showing a prediction mask image according to an embodiment of the present application output with color classification according to the depth of air in the abdomen.
  • Figure 8 is an operation flowchart of a method for measuring air distribution in the abdomen according to an embodiment of the present application.
  • This disclosure relates to devices and methods for measuring air distribution within the abdomen.
  • a device for measuring air distribution in the abdomen may transmit an image of the subject's abdomen through a medical imaging device (not shown) and a network.
  • Medical imaging devices are used through medical imaging devices (not shown) such as magnetic resonance imaging (MRI) scanners, ultrasound imaging devices, and computerized tomography (CT) scanners, and networks (not shown). It can be linked, but is not limited to this, and of course, various medical imaging devices that acquire images of the subject's abdomen can be used.
  • a network refers to a connection structure that allows information exchange between nodes such as terminals and servers. Examples of such networks 30 include the 3rd Generation Partnership Project (3GPP) network and Long Term Evolution (LTE).
  • 3GPP 3rd Generation Partnership Project
  • LTE Long Term Evolution
  • Network 5G network, WIMAX (World Interoperability for Microwave Access) network, Internet, LAN (Local Area Network), Wireless LAN (Wireless Local Area Network), WAN (Wide Area Network), PAN (Personal Area Network), It includes, but is not limited to, a wifi network, Bluetooth network, satellite broadcasting network, analog broadcasting network, and DMB (Digital Multimedia Broadcasting) network.
  • FIG. 1 is a schematic diagram of a device for measuring air distribution in the abdomen according to an embodiment of the present application.
  • a device for measuring air distribution in the abdomen includes an image acquisition unit 110 that acquires an abdominal image and a masking image with an air area pre-marked in the abdominal image, and a plurality of devices by modifying the abdominal image and the masking image.
  • An image generator 120 that generates an image
  • a model generator 130 that learns the plurality of generated images to create a model for dividing the air area in the abdomen, and inputs the subject's abdominal image into the generated model.
  • a dividing unit 140 that divides the air area in the abdomen, a prediction mask image that divides the divided air area in the subject's abdomen according to depth, or an output that outputs a result of calculating the amount of air in the subject's abdomen. It may include unit 150.
  • the image acquisition unit 110 may acquire an abdominal image and a masking image in which an air area is pre-marked in the abdominal image.
  • the image acquisition unit 110 can directly obtain abdominal images from a medical imaging device such as an X-ray device, CT (Computed Tomography), or MRI (Magnetic Resonance Imaging).
  • a medical imaging device such as an X-ray device, CT (Computed Tomography), or MRI (Magnetic Resonance Imaging).
  • abdominal images taken by a medical imaging device can be obtained from a server where they are stored using a medical image transmission system (PACS), or by connecting to an external storage device (e.g. FDD, HDD, CD drive, etc.).
  • An image of the patient's abdomen may be obtained, but is not limited thereto.
  • multiple X-ray images of a patient before and after an intestinal tumor or polypectomy surgery with a size of 3024x2520x3 and X-ray images with various abdominal air-shaded areas can be provided.
  • the image acquisition unit 110 may acquire a masking image that pre-marks the area that the specialist determines to be an air area in the acquired abdominal image.
  • Figure 2 is a diagram schematically showing the creation of a masking image by pre-marking an air area on an abdominal image according to an embodiment of the present application.
  • the image acquisition unit 110 can acquire a plurality of masking images that a specialist has marked as an air area through authoring software such as Labelme, wkentaro, and November.
  • the image acquisition unit 110 may perform annotation work in advance on the acquired abdominal image to obtain data for learning the air region before learning the artificial intelligence model.
  • Figure 3 is a diagram illustrating an exemplary masking image generated from a plurality of abdominal images according to an embodiment of the present application.
  • the generated masking image may be one in which an area filled with air is classified as 0 and a background area is classified as 1. Additionally, in the case of lungs in the acquired abdominal image, air is present, but a masking image can be generated by discriminating that there is no air.
  • the image generator 120 may generate a plurality of images by modifying the abdominal image and the masking image.
  • Figure 4 is a diagram illustrating a modified abdominal image and a masking image according to an embodiment of the present application.
  • the image generator 120 may augment the abdominal image that is learning data and the generated masking image before the artificial intelligence model learns.
  • the image generator 120 may generate a new image through elastic deformation of the abdomen image and the masking image.
  • 100 abdominal images acquired from the image acquisition unit 110 are elastically deformed to augment 1000 similar images, and a masking image that pre-marks the air area in the 100 abdominal images is elastically deformed to 1000 similar images. You can create masking images.
  • the image augmentation technique generates various variations of the training data set to help the trained model correctly predict new images and increases the amount of images through a computer algorithm. It is a means of solving data shortage and imbalance problems.
  • the size of the learning image is one of the factors that significantly affects the performance of the model. If the image is insufficient, the characteristics may not be reflected well or the risk of underfitting or overfitting increases.
  • Various transformation techniques exist, such as left/right/top/bottom inversion, image rotation, color conversion, blurring, random crop, histogram processing, and image warping. By randomly applying various transformation methods and transformation parameter levels, an image can be augmented exponentially from a single abdominal image. It is not limited to the above-described techniques, but various techniques for enhancing abdominal images can be applied.
  • the image generator 120 may generate a plurality of images including a plurality of abdomen images and a plurality of masking images by modifying each of the abdomen image and the masking image multiple times.
  • the image generator 120 generates a plurality of abdominal images by elastically deforming the abdominal image multiple times through an elastic deformation technique among image augmentation techniques, and elastically deforms the masking image multiple times to generate a plurality of masking images. You can.
  • the model generator 130 may learn a plurality of generated images to create a model that divides the air area within the abdomen.
  • the model for segmenting the air area within the abdomen can be implemented as a deep learning model suitable for image segmentation, such as Unet, but is not limited to this.
  • Unet is a convolutional network for image segmentation in the biomedical field and has the advantage of high speed due to its end-to-end structure.
  • the Unet algorithm can create a deep convolutional neural network using the Convolution-Batch Normalization-ReLU layer block.
  • the U-Net model architecture can output images with more granularity than the traditional encoder-decoder model, which takes an image as input and downsamples layer by layer until a layer of the image is sampled.
  • the model generator 130 learns a plurality of abdominal images and a plurality of masking images to generate a mask that predicts the air area in the abdomen, and creates a model to segment the air area in the abdomen based on the generated mask. You can.
  • Figure 5 is a diagram illustrating the results of predicting the air area within the abdomen by learning a plurality of modified images according to an embodiment of the present application.
  • the model generator 130 generates a mask that predicts the air area in the abdomen by learning each of a plurality of abdominal images generated by augmenting the abdominal image and a plurality of masking images generated by augmenting the masking image. And, based on the generated mask, a model can be created to predict and segment the air area in the input subject's abdominal image.
  • the model generator 130 may use a mask RCNN (Regional Convolution Neural network) model to generate a mask that predicts the air area within the abdomen.
  • Mask RCNN is a technique developed from Faster RCNN, and like Faster RCNN, it can be performed by proposing candidates for several RoIs (Regions of Interest) in the image.
  • the artificial intelligence model is implemented to quickly learn recognition of specific ear components from the entire image using FPN (Feature Pyramid Network) as a backbone network for learning images, and ResNet ( It may be a model that has been learned to recognize the region of interest (RoI) more quickly by implementing it to include 50 or 101 hidden layers based on a Residual Network.
  • FPN Feature Pyramid Network
  • ResNet It may be a model that has been learned to recognize the region of interest (RoI) more quickly by implementing it to include 50 or 101 hidden layers based on a Residual Network.
  • the proposed RoI candidates are set as bounding boxes, and the feature map of the bounding box location is extracted using the RoIAlign method. From the feature map, the air area can be classified and at the same time a mask corresponding to the air area within the abdomen can be created.
  • the type of artificial intelligence model for segmenting the air area in the abdomen is not limited to the Unet model and the Mask RCNN model, and there are various artificial intelligence-based object recognition algorithm models or image analysis models that are already known or developed in the future. It can be applied.
  • the segmentation unit 140 may input an image of the subject's abdomen into the generated model to segment the air area within the abdomen.
  • the segmentation unit 140 inputs the abdominal image obtained through X-ray, CT, or MRI of the subject's abdomen into the model for dividing the air area within the abdomen generated by the model creation unit 130. It can be divided into areas where air exists and areas where air does not exist.
  • the evaluation unit of the device for measuring air distribution in the abdomen may calculate an evaluation index between the masking image and the prediction mask image and evaluate prediction performance.
  • the evaluation unit may calculate the evaluation index by calculating the ratio of overlapping air areas in the pre-displayed masking image and the predicted mask image derived from the model.
  • the ratio of the overlapping area between the masking image and the predicted mask image can be calculated using the Jaccard index.
  • the Jaccard index an evaluation index, can be calculated as the ratio of the area where the masking image and the predicted mask image overlap to the area that combines the masking image and the predicted mask image.
  • the Jacquard index has a value between 0 and 1. If the two sets are the same, it has a value of almost 1, and if there is no common area, it has a value of 0. If the evaluation index calculated using the Jacquard index is higher than or equal to the set threshold, the prediction is judged to be good, that is, the air area is judged to actually exist, and conversely, the evaluation index calculated is higher than the threshold. If it is low, the prediction may be judged to have failed and a re-learning process may be requested.
  • the threshold may be a value that the user arbitrarily sets as a standard.
  • the output unit 150 may output a prediction mask image in which the segmented air area in the subject's abdomen is divided according to depth or a result of calculating the amount of air in the subject's abdomen.
  • Figure 6 is a diagram illustrating a prediction mask image expressed by dividing light and dark values according to the depth of air in the abdomen according to an embodiment of the present application.
  • the output unit 150 creates a prediction mask in which the area with a deep air layer is expressed darkly and the layer with a shallow air layer is brightly displayed according to the depth of the air area within the abdomen. Images can be printed.
  • the predicted mask image may be expressed by dividing the light and dark values into values between 0 and 1 depending on the depth of air in the abdomen.
  • the output unit 150 may output a result of calculating the amount of air in the abdomen based on the brightness value of the prediction mask image.
  • the output unit 150 outputs a result of quantifying the amount of air in the subject's abdomen based on a predicted mask image with a value depending on the depth of the air, that is, a value between 0 and 1 depending on the brightness. Can be printed.
  • the output unit 150 obtains an array value of elements corresponding to each area of the prediction mask image having different brightness values depending on the depth of the air, and calculates the background area value of 1 and the arrangement of each element constituting the prediction mask image. Calculate the difference between the values to obtain the volume of air in each area, and quantify the amount of air in the abdomen by calculating the ratio of the sum of the air volumes in each area to the size of the entire predicted mask image (e.g., air volume 67.9 %)can do.
  • the output unit 150 may output a predicted mask image color-coded according to the depth of air in the abdomen based on the brightness value of the predicted mask image.
  • Figure 7 is a diagram showing a prediction mask image according to an embodiment of the present application output with color classification according to the depth of air in the abdomen.
  • the output unit 150 selects an area where the air layer is deep (an area where the contrast value is lower than the predetermined standard contrast value) according to a predetermined reference contrast value in the prediction mask image.
  • the area where the air layer is shallower is displayed in blue, thereby outputting a color-coded prediction mask image.
  • the output unit 150 may output a prediction mask image when the evaluation index is greater than or equal to a preset value.
  • the output unit 150 may determine whether to output the prediction mask image based on the threshold value of the evaluation index preset by the user. For example, if the threshold value of the evaluation index preset by the user is 0.6 and the calculated threshold value is 0.5, the output unit 150 may not output the prediction mask image.
  • the diagnostic unit may derive a result of the presence or absence of an abnormality in the subject's abdomen based on the calculated amount of air, and may diagnose a possible disease of the subject in connection with the prediction result.
  • the diagnosis department determines the presence or absence of an abnormality by inputting the amount of air in the subject's abdomen through an artificial intelligence model learned by matching the disease information of a patient with an abdominal abnormality and the information on the amount of air in the patient's abdomen. Possible diseases can be predicted based on the amount of air in the abdomen.
  • the diagnostic department inputs the information of a subject whose amount of air in the abdomen was calculated to be 78.6% into an artificial intelligence model to determine whether there is an abnormality, and determines whether the amount of air in the abdomen is in the range of 75% to 80%. It may be possible to predict the disease that may develop by matching the type of disease that occurs in patients.
  • the artificial intelligence models described above include, for example, Deep Neural Network (DNN), Convolutional Neural Network (CNN), Recurrent Neural Network (RNN), and Restricted Boltzmann Machine (RBM). , may refer to models such as Deep Belief Network (DBN) and Deep Q-Networks, or may refer to other artificial intelligence models not illustrated.
  • the diagnostic unit sets the amount of air in the abdomen within the normal range, determines that there is an abnormality in the abdominal organs if the calculated amount of air is more than the set value, and provides color-coded predictions to determine the abnormal organs. Based on the mask image, an area with a deep air layer can be diagnosed as an abnormal area.
  • the diagnostic department determines that there is an abnormality in the abdominal organs and detects a red area with a deep air layer. It may be a diagnosis that there is something wrong with an organ.
  • the diagnostic unit can diagnose diseases corresponding to the preset amount and color of air.
  • the diagnosis department diagnoses diseases that can develop in organs corresponding to areas with deep air layers, such as irritable bowel syndrome, lactose intolerance, pancreatitis, peptic ulcer, celiac disease, and appendicitis. , it can be used to predict and diagnose diseases such as diverticulitis.
  • the output unit 150 outputs the results diagnosed by the diagnosis unit on the screen, and uses the output prediction mask image as an image output setting value (for example, For example, the window width, window level, etc.) can be changed to a predetermined value, or the image output settings already applied to the corresponding area can be set to output so that a specific tissue type can be relatively easily identified.
  • an image output setting value for example, For example, the window width, window level, etc.
  • Figure 8 is an operation flowchart of a method for measuring air distribution in the abdomen according to an embodiment of the present application.
  • the image acquisition unit 110 may acquire an abdominal image and a masking image in which an air area is previously displayed in the abdominal image.
  • the image generator 120 may generate a plurality of images by modifying the abdominal image and the masking image.
  • the image generator 120 may generate a plurality of images including a plurality of abdomen images and a plurality of masking images by modifying each of the abdomen image and the masking image multiple times.
  • the model generator 130 may learn a plurality of images to create a model for dividing the air area within the abdomen.
  • step S803 the model generator 130 learns a plurality of abdominal images and masking images to create a mask that predicts the air area in the abdomen, and creates a model to segment the air area in the abdomen based on the generated mask. can do.
  • the segmentation unit 140 may segment the air area within the abdomen by inputting the image of the subject's abdomen into the generated model.
  • the output unit 150 may output a prediction mask image in which the segmented air area in the subject's abdomen is divided according to depth or a result of calculating the amount of air in the subject's abdomen.
  • the output unit 150 may output a prediction mask image when the evaluation index is greater than or equal to a preset value.
  • the output unit 150 may output a result of calculating the amount of air in the abdomen based on the brightness value of the predicted mask image.
  • the output unit 150 may output a predicted mask image color-coded according to the depth of air in the abdomen based on the brightness value of the predicted mask image.
  • steps S801 to S805 may be further divided into additional steps or combined into fewer steps, depending on the implementation of the present disclosure. Additionally, some steps may be omitted or the order between steps may be changed as needed.
  • the method of measuring air distribution in the abdomen may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination.
  • Program instructions recorded on the medium may be specially designed and constructed for the present invention or may be known and usable by those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks.
  • optical media magnetic-optical media
  • hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc.
  • program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.
  • the hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
  • the description of the present application described above is for illustrative purposes, and those skilled in the art will understand that the present application can be easily modified into other specific forms without changing its technical idea or essential features. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Pulmonology (AREA)
  • Image Analysis (AREA)

Abstract

복부 내 공기 분포를 측정하는 장비 및 방법이 개시되며, 본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 장치는 복부 이미지와 상기 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득하는 이미지 획득부, 상기 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성하는 이미지 생성부, 상기 생성된 복수의 이미지를 학습하여 상기 복부 내 공기 영역을 분할하는 모델을 생성하는 모델 생성부, 대상자의 복부 이미지를 상기 생성된 모델에 입력하여 상기 복부 내 공기 영역을 분할하는 분할부, 상기 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 상기 대상자의 복부 내 공기의 양을 계산한 결과를 출력하는 출력부를 포함할 수 있다.

Description

복부 내 공기 분포를 측정하는 장치 및 방법
본원은 복부 내 공기 분포를 측정하는 장치 및 방법에 관한 것이다.
CT(Computed Tomography)나 MR(Magnetic Resonance) 영상을 처리하는 의료 영상 처리 기술은 전문의들에게 있어 치료나 수술을 위한 계획과 방법 등을 결정하는데 매우 중요한 역할을 한다. 현재의 진단은 의료인들의 전문적 지식과 경험에 의해 시각적으로 이루어지고 있다. 이를 정량화하고 시각적으로 변환한 이미지를 제공한다면 시간 단축과 함께 진단의 정확성을 높일 수 있으며 이로써 많은 양의 진료 또한 이루어 질 수 있다.
복부는 사람 몸 가운데 가장 넓고, 가장 많은 장기를 가지고 있으며, 다양한 질환과 증상을 보일 수 있다. 복부 질환은 일반적으로 복부 통증, 불편감, 소화불량, 구역, 구토, 복부 팽만감, 설사, 변비, 심한 급성 통증, 압통, 토혈, 혈변, 황달 등과 같은 다양한 증상이 나타날 수 있다. 복부 영상 진단을 위해 X-선 일반복부촬영, 복부조영검사, 초음파, CT, MRI 등을 이용하여 부위에 따라 다양한 방식으로 검사가 이루어진다. 일반복부촬영(X-ray)은 결석 유무, 위장관 공기 음영 분석을 위해 이용되고 주로 급성 복통 환자나 소아 복통 환자에게 검사가 이루어지고 있다. 복부조영검사는 위장조영검사, 소장조영검사, 대장조영검사, 담도조영검사 등 여러 검사를 통해 위장관계 질환을 진단하고 있다. 또한 복부 내 공기 분포 패턴은 내시경, 기타 시술 등의 외적인 요소 뿐 만 아니라, 환자의 위장관 폐색 등의 구조적 문제, 기능 저하 등 다양한 원인으로 변화하게 되는데 기존에는 사람이 직접 이미지에서 복부 내 공기 패턴을 해석하기 때문에 해석자 간 변동성이 존재하였고, 복부 내 공기 분포를 정량화하는데에 한계가 있었다. 또한, 종래의 기술은 복부 장기의 볼륨 변화를 분석하여 복부 장기의 상태를 판단하는 기술에 그치고 있어 본 개시는 복부 내 공기 분포를 정량적으로 측정하는 장치 및 방법을 제공하고자 한다. 본원의 배경이 되는 기술은 한국등록특허공보 제10-2332032호에 개시되어 있다.
본원은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 복부 이미지를 기반으로 인공지능 모델을 학습시키기 위해 복부 이미지 및 마스킹 이미지를 변형하여 새로운 이미지를 생성하고, 학습을 통해 복부 내 공기 영역을 분할하는 모델을 생성함으로써 대상자의 복부 이미지에서 공기 영역을 분할하고 분할된 대상자의 복부 내 공기 영역을 예측한 이미지 또는 공기의 양을 산출한 결과를 출력하는 장치를 제공하는 것을 목적으로 한다.
다만, 본원의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상기한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 장치는, 복부 이미지와 상기 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득하는 이미지 획득부, 상기 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성하는 이미지 생성부, 상기 생성된 복수의 이미지를 학습하여 상기 복부 내 공기 영역을 분할하는 모델을 생성하는 모델 생성부, 대상자의 복부 이미지를 상기 생성된 모델에 입력하여 상기 복부 내 공기 영역을 분할하는 분할부, 상기 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 상기 대상자의 복부 내 공기의 양을 계산한 결과를 출력하는 출력부를 포함할 수 있다.
또한, 이미지 생성부는 상기 복부 이미지 및 마스킹 이미지 각각을 복수 회 변형하여 복수의 복부 이미지 및 복수의 마스킹 이미지를 포함하는 상기 복수의 이미지를 생성할 수 있다.
또한, 모델 생성부는 상기 복수의 복부 이미지 및 복수의 마스킹 이미지를 학습하여 복부 내 공기 영역을 예측하는 마스크를 생성하고, 상기 생성된 마스크에 기초하여 복부 내 공기 영역을 분할하는 모델을 생성할 수 있다.
또한, 복부 내 공기 분포를 측정하는 장치는 상기 마스킹 이미지와 상기 예측 마스크 이미지 사이의 평가 지표를 산출하고 예측 성능을 평가하는 평가부를 더 포함할 수 있다.
또한, 출력부는 상기 평가 지표가 미리 설정한 값 이상인 경우 상기 예측 마스크 이미지를 출력할 수 있다.
또한, 예측 마스크 이미지는 상기 복부 내 공기의 깊이에 따라 명암 값을 구분하여 표현된 것일 수 있다.
또한, 출력부는 상기 예측 마스크 이미지의 명암 값에 기초하여 상기 복부 내 공기의 양을 계산한 결과를 출력할 수 있다.
또한, 출력부는 상기 예측 마스크 이미지의 명암 값에 기초하여 상기 복부 내 공기의 깊이 따라 색상이 구분된 예측 마스크 이미지를 출력할 수 있다.
또한, 복부 내 공기 분포를 측정하는 장치는, 상기 산출된 공기의 양을 기초하여 상기 대상자의 복부 내 이상 유무 결과를 도출하고, 상기 예측 결과와 연계하여 상기 대상자의 발병 가능 질병을 진단하는 진단부를 더 포함할 수 있다.
또한, 진단부는 상기 계산된 복부 내 공기의 양에 기초하여 미리 설정된 값 이상인지 판단하여 상기 복부 내 장기의 이상 여부를 판단하고, 상기 색상이 구분된 예측 마스크 이미지에 기초하여 상기 복부 내 장기 중 이상이 있는 영역을 진단할 수 있다.
한편, 복부 내 공기 분포를 측정하는 방법에 있어서, 복부 이미지와 상기 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득하는 단계, 상기 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성하는 단계, 상기 생성된 복수의 이미지를 학습하여 상기 복부 내 공기 영역을 분할하는 모델을 생성하는 단계, 대상자의 복부 이미지를 상기 생성된 모델에 입력하여 상기 복부 내 공기 영역을 분할하는 단계, 상기 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 상기 대상자의 복부 내 공기의 양을 계산한 결과를 출력하는 단계를 포함할 수 있다.
상술한 과제 해결 수단은 단지 예시적인 것으로서, 본원을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 추가적인 실시예가 존재할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 공기 영역이 미리 표시된 마스킹된 이미지와 복부 이미지를 함께 학습함으로써, 더 정확하게 복부 내 공기 영역을 분할할 수 있는 효과가 있다.
전술한 본원의 과제 해결 수단에 의하면, 복부 이미지의 이미지 증강을 통해, 다수의 학습데이터를 확보하여 인공지능 모델이 학습함으로써 더 정확하게 복부 내 공기 영역을 구분할 수 있다.
전술한 본원의 과제 해결 수단에 의하면, 복부 내 예측된 공기 영역을 깊이에 따라 색상을 구분하여 출력함으로써, 사용자가 복부 내 공기 영역을 쉽게 구분할 수 있다.
다만, 본원에서 얻을 수 있는 효과는 상기된 바와 같은 효과들로 한정되지 않으며, 또 다른 효과들이 존재할 수 있다.
도 1은 본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 장치의 개략적인 구성도이다.
도 2는 본원의 일 실시예에 따른 복부 이미지에 공기 영역을 미리 표시하여 마스킹 이미지를 생성하는 모습을 개략적으로 나타낸 도면이다.
도 3은 본원의 일 실시예에 따른 복수의 복부 이미지에서 생성된 마스킹 이미지를 예시적으로 나타낸 도면이다.
도 4는 본원의 일 실시예에 따른 변형된 복부 이미지와 마스킹 이미지를 예시적으로 나타낸 도면이다.
도 5는 본원의 일 실시예에 따른 변형된 복수의 이미지를 학습하여 복부 내 공기 영역을 예측한 결과를 예시적으로 나타낸 도면이다.
도 6은 본원의 일 실시예에 따른 복부 내 공기의 깊이에 따라 명암 값을 구분하여 표현된 예측 마스크 이미지를 예시적으로 나타낸 도면이다.
도 7은 본원의 일 실시예에 따른 예측 마스크 이미지를 복부 내 공기의 깊이에 따라 색상을 구분하여 출력한 모습을 나타낸 도면이다.
도 8은 본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 방법에 대한 동작 흐름도이다.
아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결" 또는 "간접적으로 연결"되어 있는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부재가 다른 부재 "상에", "상부에", "상단에", "하에", "하부에", "하단에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
본원 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다.
본원은 복부 내 공기 분포를 측정하는 장치 및 방법에 관한 것이다.
본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 장치는 의료 영상 촬영 장치(미도시)와 네트워크를 통해 대상자의 복부 이미지를 전송할 수 있다. 의료 영상 촬영 장치는 자기공명영상(Magnetic Resonance Imaging, MRI) 스캐너, 초음파 영상 촬영 장치, 컴퓨터 단층촬영(Computerized Tomography, CT) 스캐너 등의 의료 영상 촬영 장치(미도시)와 네트워크(미도시)를 통해 연동될 수 있으나 이에 한정되지는 않으며, 대상자의 복부 이미지를 획득하는 다양한 의료 영상 촬영 장치가 이용될 수 있음은 물론이다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(30)의 일 예에는, 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, 5G 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), wifi 네트워크, 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다.
도 1은 본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 장치의 개략적인 구성도이다.
도 1을 참조하면, 복부 내 공기 분포를 측정하는 장치는 복부 이미지와 상기 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득하는 이미지 획득부(110), 상기 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성하는 이미지 생성부(120), 상기 생성된 복수의 이미지를 학습하여 상기 복부 내 공기 영역을 분할하는 모델을 생성하는 모델 생성부(130), 대상자의 복부 이미지를 상기 생성된 모델에 입력하여 상기 복부 내 공기 영역을 분할하는 분할부(140), 상기 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 상기 대상자의 복부 내 공기의 양을 계산한 결과를 출력하는 출력부(150)를 포함할 수 있다.
본원의 일 실시예에 따르면, 이미지 획득부(110)는 복부 이미지와 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득할 수 있다.
구체적으로, 이미지 획득부(110)는 X-Ray 장치, CT(Computed Tomography; 컴퓨터단층촬영장치) 또는MRI(Magnetic Resonance Imaging; 자기공명영상장치) 등과 같은 의료 영상 촬영 장치로부터 직접 복부 이미지를 얻을 수 있으며, 또는 의료 영상 촬영 장치가 촬영한 복부 이미지가 저장된 서버(Server)로부터 의료 영상 전송 시스템(PACS)에 의해 얻을 수 있으며, 또는 외부기억장치(예:FDD, HDD, CD드라이브 등)와 접속하여 환자의 복부 이미지를 얻을 수 있으나 이에 한정되지는 않는다. 예를 들어, 3024x2520x3 크기의 장 내 종양이나 용종 절제수술 전과 후의 환자의 복수 X-ray 이미지와 다양한 복부 공기 음영 영역을 가진 X-ray 이미지를 제공받을 수 있다.
또한, 이미지 획득부(110)는 전문의가 획득된 복부 이미지에서 공기 영역으로 판단한 영역을 미리 표시한 마스킹 이미지를 획득할 수 있다.
이와 관련하여, 도 2는 본원의 일 실시예에 따른 복부 이미지에 공기 영역을 미리 표시하여 마스킹 이미지를 생성하는 모습을 개략적으로 나타낸 도면이다.
도 2를 참조하면 이미지 획득부(110)는 예를 들어 Labelme, wkentaro, November 등의 저작 소프트웨어를 통해 전문의가 공기 영역이라고 표시한 복수의 마스킹 이미지를 획득할 수 있다.
구체적으로, 이미지 획득부(110)는 인공지능 모델의 학습 이전에 공기 영역을 학습하기 위한 데이터를 얻기 위해 획득된 복부 이미지에 미리 Annotation(주석) 작업을 수행할 수 있다.
도 3은 본원의 일 실시예에 따른 복수의 복부 이미지에서 생성된 마스킹 이미지를 예시적으로 나타낸 도면이다.
도 3을 참조하면, 예를 들어, 생성된 마스킹 이미지는 공기로 채워진 영역은 0, 배경 영역은 1로 구분된 것일 수 있다. 또한, 획득된 복부 이미지 내 폐의 경우 공기가 존재하지만, 공기가 없는 것으로 구분하여 마스킹 이미지를 생성할 수 있다.
본원의 일 실시예에 따르면, 이미지 생성부(120)는 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성할 수 있다.
이와 관련하여, 도 4는 본원의 일 실시예에 따른 변형된 복부 이미지와 마스킹 이미지를 예시적으로 나타낸 도면이다.
도 4를 참조하면, 이미지 생성부(120)는 인공지능 모델이 학습하기에 앞서 학습 데이터인 복부 이미지와 생성된 마스킹 이미지를 증강할 수 있다.
구체적으로, 이미지 생성부(120)는 복부 이미지와 마스킹 이미지를 탄성변형(Elastic deformation)을 통해 새로운 이미지를 생성할 수 있다. 예를 들어, 이미지 획득부(110)에서 획득한 100개의 복부 이미지를 탄성변형하여 비슷한 이미지를 1000개로 증강(Augmentation)시키고, 100개의 복부 이미지에 공기 영역을 미리 표시한 마스킹 이미지를 탄성변형하여 1000개의 마스킹 이미지를 생성할 수 있다.
이미지 증강 기법은 훈련 데이터 셋의 다양한 변형을 발생시켜 훈련된 모델이 새로운 이미지도 올바르게 예측하도록 돕고, 컴퓨터 알고리즘을 통해 이미지의 양을 늘리는 기술로서, 데이터 부족 및 불균형 문제를 해결하기 위한 수단이다. 학습 이미지의 규모는 모델의 성능에 중요한 영향을 미치는 요소 중 하나로 이미지가 부족한 경우 특징을 잘 반영하지 못하거나 과소적합 및 과적합에 빠질 위험이 증가한다. 다양한 변형은 좌우/상하반전, 이미지 회전, 색변환, 블러링(blurring), 무작위로 자르기(random crop), 히스토그램 처리(histogram processing), 이미지 와핑(image warping) 등 다양한 기법이 존재한다. 다양한 변환 방법 및 변환 파라미터 수준을 랜덤하게 적용하여 한 장의 복부 이미지로부터 기하급수적으로 이미지를 증강할 수 있다. 상술한 기법들에 한정되는 것이 아니라 복부 이미지를 증강하는 다양한 기법들이 적용될 수 있다.
또한, 본원의 일 실시예에 따르면, 이미지 생성부(120)는 복부 이미지 및 마스킹 이미지 각각을 복수 회 변형하여 복수의 복부 이미지 및 복수의 마스킹 이미지를 포함하는 복수의 이미지를 생성할 수 있다.
구체적으로, 이미지 생성부(120)는 이미지 증강 기법 중 탄성변형 기법을 통해 복부 이미지를 복수 회 탄성변형하여 복수의 복부 이미지를 생성하고, 마스킹 이미지를 복수 회 탄성변형하여 복수의 마스킹 이미지를 생성할 수 있다.
본원의 일 실시예에 따르면, 모델 생성부(130)는 생성된 복수의 이미지를 학습하여 복부 내 공기 영역을 분할하는 모델을 생성할 수 있다.
여기서, 복부 내 공기 영역을 분할하는 모델은 Unet과 같이 이미지 분할에 적합한 딥러닝 모델로 구현될 수 있으나 이에 한정되는 것은 아니다. Unet은 바이오메디컬 분야에서 이미지 분할(Image segmentation)을 위한 Convolutional Network로 End-to-End 구조로 속도가 빠른 장점이 있다.
또한, Unet 알고리즘은 Convolution-Batch Normalization-ReLU 레이어 블록을 사용하여 심층 컨볼루션 신경망을 생성할 수 있다. U-Net모델 아키텍처는 이미지를 입력으로 가져오고 이미지의 레이어가 샘플링될 때까지 레이어에 대해 다운샘플링하는 기존 인코더-디코더 모델보다 세분화하여 이미지를 출력할 수 있다.
또한, 모델 생성부(130)는 복수의 복부 이미지 및 복수의 마스킹 이미지를 학습하여 복부 내 공기 영역을 예측하는 마스크를 생성하고, 생성된 마스크에 기초하여 복부 내 공기 영역을 분할하는 모델을 생성할 수 있다.
이와 관련하여, 도 5는 본원의 일 실시예에 따른 변형된 복수의 이미지를 학습하여 복부 내 공기 영역을 예측한 결과를 예시적으로 나타낸 도면이다.
도 5를 참조하면, 모델 생성부(130)는 복부 이미지를 증강하여 생성된 복수의 복부 이미지와 마스킹 이미지를 증강하여 생성된 복수의 마스킹 이미지 각각을 학습함으로써 복부 내 공기 영역을 예측하는 마스크를 생성하고, 생성된 마스크에 기초하여 입력된 대상자의 복부 이미지에서 공기 영역을 예측하여 분할하는 모델을 생성할 수 있다.
또한, 모델 생성부(130)는 복부 내 공기 영역을 예측하는 마스크를 생성하기 위한 모델은 Mask RCNN(Regional Convolution Neural network) 모델일 수 있다. Mask RCNN은, Faster RCNN으로부터 발전한 기법으로, Faster RCNN과 마찬가지로 영상에서 여러 RoI(Region of Interest)의 후보를 제안함으로써 수행될 수 있다.
보다 구체적으로, 해당 인공지능 모델은 이미지에 대한 학습을 위한 백본 망(Backbone network)으로서 FPN(Feature Pyramid Network)을 사용하여 전체 이미지로부터 특정 귀의 구성 기관에 대한 인식을 빠르게 학습하도록 구현하고, ResNet(Residual Network) 기반의 50 또는 101의 은닉층(hidden layer)을 포함하도록 구현하여 관심 영역(RoI, Region of Interest)을 보다 빠르게 인식하도록 학습이 이루어진 모델일 수 있다.
구체적으로, 상술한 Mask RCNN 모델을 적용하여 미리 수집된 정상 고막 영상에서 여러 RoI 후보를 제안하고, 제안된 RoI 후보들을 경계 박스로 설정하며, 경계 박스 위치의 특징맵을 RoIAlign 방식으로 추출하고, 추출된 특징맵으로부터 공기 영역을 분류함과 동시에 복부 내 공기 영역에 대응하는 마스크를 생성할 수 있다.
다만, 복부 내 공기 영역을 분할하기 위한 인공지능 모델의 유형은 Unet 모델, Mask RCNN모델로 한정되는 것은 아니며, 종래에 이미 공지되었거나 향후 개발되는 다양한 인공지능 기반의 객체 인식 알고리즘 모델 또는 이미지 분석 모델이 적용될 수 있다.
본원의 일 실시예에 따르면, 분할부(140)는 대상자의 복부 이미지를 생성된 모델에 입력하여 복부 내 공기 영역을 분할할 수 있다.
구체적으로, 분할부(140)는 대상자의 복부를 X-Ray, CT 또는MRI 등의 촬영을 통해 획득한 복부 이미지를 모델 생성부(130)에서 생성된 복부 내 공기 영역을 분할하는 모델에 입력하여 공기가 존재하는 영역과 존재하지 않는 영역으로 구분하여 분할할 수 있다.
본원의 일 실시예에 따르면, 복부 내 공기 분포를 측정하는 장치의 평가부는 마스킹 이미지와 예측 마스크 이미지 사이의 평가 지표를 산출하고 예측 성능을 평가할 수 있다.
구체적으로, 평가부는 미리 표시된 마스킹 이미지와 모델에서 도출된 예측 마스크 이미지에서 겹치는 공기 영역의 비율을 계산하여 평가 지표를 산출할 수 있다. 마스킹 이미지와 예측 마스크 이미지 사이의 겹치는 영역의 비율은 자카드 지수를 이용하여 산출될 수 있다. 평가 지표인 자카드 지수는 마스킹 이미지와 예측 마스크 이미지가 겹친 영역을 마스킹 이미지와 예측 마스크 이미지를 합한 영역으로 나는 비율로 산출될 수 있다.
자카드 지수는 0과 1사이의 값을 가지며 두 집합이 동일하면 거의 1의 값을 가지고, 공통 영역이 없으면 0의 값을 가진다. 자카드 지수를 이용하여 산출된 평가 지표가 설정한 임계값(threshold)보다 높거나 같으면 예측이 잘 된 것으로 판단, 즉 공기 영역이 실제로 존재한다고 판단하고, 반대로 산출된 평가 지표가 임계값(threshold) 보다 낮으면 예측이 실패한 것으로 판단하여 재학습을 과정을 요청할 수 있다.
또한, 임계값(threshold)은 사용자가 기준이 되는 값을 임의로 설정하는 것일 수 있다.
본원의 일 실시예에 따르면, 출력부(150)는 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 대상자의 복부 내 공기의 양을 계산한 결과를 출력할 수 있다.
이와 관련하여, 도 6은 본원의 일 실시예에 따른 복부 내 공기의 깊이에 따라 명암 값을 구분하여 표현된 예측 마스크 이미지를 예시적으로 나타낸 도면이다.
도 6을 참조하면, 출력부(150)는 명암 값을 기초하여 공기가 복부 내 공기 영역을 깊이에 따라 공기 층이 깊은 영역은 어둡게 표현되고, 공기 층의 깊이가 얕은 층은 밝게 구분한 예측 마스크 이미지를 출력할 수 있다. 여기서 예측 마스크 이미지는 복부 내 공기의 깊이에 따라 명암 값을 0과 1사이의 값으로 구분하여 표현된 것일 수 있다.
또한, 본원의 일 실시예에 따르면 출력부(150)는 예측 마스크 이미지의 명암 값에 기초하여 복부 내 공기의 양을 계산한 결과를 출력할 수 있다.
구체적으로, 출력부(150)는 대상자의 복부 내 공기의 양을 공기의 깊이에 따른 값, 즉 명암에 따라 0과 1사이의 값을 가지는 예측 마스크 이미지를 기초하여 공기의 양을 정량화한 결과를 출력할 수 있다. 또한, 출력부(150)는 공기의 깊이에 따라 서로 다른 명암 값을 가지는 예측 마스크 이미지의 각 영역에 대응하는 요소들의 배열 값을 구하고, 배경 영역 값인 1과 예측 마스크 이미지를 구성하는 각 요소들의 배열 값의 차이를 계산하여 각 영역에서 공기의 부피을 구하고, 전체 예측 마스크 이미지의 크기에서 각 영역의 공기의 부피를 합산한 값의 비율을 계산함으로써 복부 내 공기의 양을 정량화(예를 들어, 공기량 67.9%)할 수 있다.
또한, 본원의 일 실시예에 따르면 출력부(150)는 예측 마스크 이미지의 명암 값에 기초하여 복부 내 공기의 깊이에 따라 색상이 구분된 예측 마스크 이미지를 출력할 수 있다.
이와 관련하여, 도 7은 본원의 일 실시예에 따른 예측 마스크 이미지를 복부 내 공기의 깊이에 따라 색상을 구분하여 출력한 모습을 나타낸 도면이다.
도 7은 흑백으로 도시되어 색상이 명확하게 드러나지 않으나, 출력부(150)는 예측 마스크 이미지에서 소정의 기준 명암 값에 따라 공기 층이 깊은 곳(소정의 기준 명암 값보다 명암 값이 낮은 영역)일 수록 붉게 표시하고, 공기 층이 얕은 곳(소정의 기준 명암 값보다 명암 값이 높은 영역)일 수록 푸르게 표시하여 색상이 구분된 예측 마스크 이미지를 출력하는 것일 수 있다.
또한, 출력부(150)는 평가 지표가 미리 설정한 값 이상인 경우 예측 마스크 이미지를 출력할 수 있다.
구체적으로, 출력부(150)는 사용자가 미리 설정한 평가 지표의 임계값에 기초하여 예측 마스크 이미지의 출력 여부를 결정할 수 있다. 예를 들어, 사용자가 미리 설정한 평가 지표의 임계값이 0,6이고, 산출된 임계값이 0.5인 경우 출력부(150)는 예측 마스크 이미지를 출력하지 않을 수 있다.
본원의 일 실시예에 따르면 진단부는 산출된 공기의 양을 기초하여 상기 대상자의 복부 내 이상 유무 결과를 도출하고, 상기 예측 결과와 연계하여 상기 대상자의 발병 가능 질병을 진단할 수 있다.
구체적으로, 진단부는 복부 이상이 있는 환자의 질병 정보와 환자의 복부 내 공기의 양 정보를 매칭하여 학습된 인공지능 모델을 통해 대상자의 복부 내 공기의 양을 입력하여 이상 유무를 판단하고, 대상자의 복부 내 공기의 양에 매칭되는 발병 가능한 질병을 예측할 수 있다.
예를 들어, 진단부는 복부 내 공기의 양이 78.6%로 산출된 대상자의 정보를 인공지능 모델에 입력하여 이상 유무를 판단하고, 복부 내 공기의 양이 75% 내지 80% 범위에 해당하는 기존의 환자들에게서 나타나는 질병의 종류와 매칭하여 발병 가능한 질병을 예측하는 것일 수 있다. 본원에서 상술한 인공지능 모델은 예컨대 심층 신경망(Deep Neural Network, DNN), 합성곱 신경망(Convolutional Neural Network, CNN), 순환 신경망(Recurrent Neural Network, RNN), 제한 볼츠만 머신(Restricted Boltzmann Machine, RBM), 심층 신뢰 신경망(Deep Belief Network, DBN) 및 심층 Q-네트워크(DeepQ-Networks)와 같은 모델을 지칭하거나, 예시되지 않은 다른 인공지능 모델을 지칭할 수도 있다.
또한, 진단부는 정상 범위의 복부 내 공기의 양을 설정하고, 산출된 공기의 양이 설정된 값 이상인 경우 복부 내 장기에 이상이 있는 것으로 판단하고, 이상이 있는 장기를 판단하기 위해 색상이 구분된 예측 마스크 이미지를 기초하여 공기 층이 깊게 형성된 영역을 이상이 있는 영역으로 진단할 수 있다.
예를 들어, 진단부는 설정된 공기의 양이 50%이고, 대상자의 복부 이미지에서 산출된 공기의 양이 70%인 경우 복부 내 장기 에 이상이 있는 것으로 판단하여 공기 층이 깊은 붉은 색 영역에 해당하는 장기에 이상이 있는 것으로 진단하는 것일 수 있다.
또한, 진단부는 미리 설정한 공기의 양과 색상에 대응하는 질병을 진단할 수 있다.
구체적으로, 진단부는 대상자의 복부 내 공기의 양과 색상에 기초하여 공기 층이 깊은 영역에 해당하는 장기에서 발병 가능한 질환, 예를 들어, 과민성 대장증후군, 유당불내증, 췌장염, 소화성 궤양, 셀리악병, 맹장염, 게실염 등의 질환을 예측 및 진단하는 것일 수 있다.
본원의 일 실시예에 따르면, 출력부(150)는 진단부에서 진단한 결과를 화면에 출력하고, 출력된 예측 마스크 이미지를 입력에 의해 선택된 영역에 대하여 국부적으로 적용되는 영상 출력 설정값(예를 들면, 윈도우 너비, 윈도우 레벨 등)을 소정의 값으로 가변하거나 해당 영역에 대하여 기존에 적용되는 영상 출력 설정을 특정 조직 유형이 상대적으로 용이하게 식별되도록 출력 설정을 할 수 있다.
이하에서는 상기에 자세히 설명된 내용을 기반으로, 본원의 동작 흐름을 간단히 살펴보기로 한다.
도 8은 본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 방법에 대한 동작 흐름도이다.
도 8을 참조하면, 단계 S801에서 이미지 획득부(110)는 복부 이미지와 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득할 수 있다.
다음으로, 단계 S802에서 이미지 생성부(120)는 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성할 수 있다.
또한, 단계 S802에서 이미지 생성부(120)는 복부 이미지 및 마스킹 이미지 각각을 복수 회 변형하여 복수의 복부 이미지 및 복수의 마스킹 이미지를 포함하는 복수의 이미지를 생성할 수 있다.
다음으로, 단계S803에서 모델 생성부(130)는 복수의 이미지를 학습하여 복부 내 공기 영역을 분할하는 모델을 생성할 수 있다.
또한, 단계 S803에서 모델 생성부(130)는 복수의 복부 이미지 및 마스킹 이미지를 학습하여 복부 내 공기 영역을 예측하는 마스크를 생성하고, 생성된 마스크에 기초하여 복부 내 공기 영역을 분할하는 모델을 생성할 수 있다.
다음으로, 단계 S804에서 분할부(140)는 대상자의 복부 이미지를 생성된 모델에 입력하여 복부 내 공기 영역을 분할할 수 있다.
다음으로, S805에서 출력부(150)는 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 대상자의 복부 내 공기의 양을 계산한 결과를 출력할 수 있다.
또한, 단계 S805에서 출력부(150)는 평가 지표가 미리 설정한 값 이상인 경우 예측 마스크 이미지를 출력할 수 있다.
또한, 단계 S805에서 출력부(150)는 예측 마스크 이미지의 명암 값에 기초하여 복부 내 공기의 양을 계산한 결과를 출력할 수 있다.
또한, 단계 S805에서 출력부(150)는 예측 마스크 이미지의 명암 값에 기초하여 복부 내 공기의 깊이에 따라 색상이 구분된 예측 마스크 이미지를 출력할 수 있다.
상술한 설명에서, 단계 S801 내지 S805는 본원의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다.
본원의 일 실시예에 따른 복부 내 공기 분포를 측정하는 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. 전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.

Claims (12)

  1. 복부 내 공기 분포를 측정하는 장치에 있어서,
    복부 이미지와 상기 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득하는 이미지 획득부;
    상기 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성하는 이미지 생성부;
    상기 생성된 복수의 이미지를 학습하여 상기 복부 내 공기 영역을 분할하는 모델을 생성하는 모델 생성부;
    대상자의 복부 이미지를 상기 생성된 모델에 입력하여 상기 복부 내 공기 영역을 분할하는 분할부;
    상기 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 상기 대상자의 복부 내 공기의 양을 계산한 결과를 출력하는 출력부;
    를 포함하는, 복부 내 공기 분포를 측정하는 장치.
  2. 제1항에 있어서,
    상기 이미지 생성부는,
    상기 복부 이미지 및 마스킹 이미지 각각을 복수 회 변형하여 복수의 복부 이미지 및 복수의 마스킹 이미지를 포함하는 상기 복수의 이미지를 생성하는 것인, 복부 내 공기 분포를 측정하는 장치.
  3. 제2항에 있어서,
    상기 모델 생성부는,
    상기 복수의 복부 이미지 및 복수의 마스킹 이미지를 학습하여 복부 내 공기 영역을 예측하는 마스크를 생성하고, 상기 생성된 마스크에 기초하여 복부 내 공기 영역을 분할하는 모델을 생성하는 것인, 복부 내 공기 분포를 측정하는 장치.
  4. 제1항에 있어서,
    상기 복부 내 공기 분포를 측정하는 장치는,
    상기 마스킹 이미지와 상기 예측 마스크 이미지 사이의 평가 지표를 산출하고 예측 성능을 평가하는 평가부를 더 포함하는 것인, 복부 내 공기 분포를 측정하는 장치.
  5. 제4항에 있어서,
    상기 출력부는,
    상기 평가 지표가 미리 설정한 값 이상인 경우 상기 예측 마스크 이미지를 출력하는 것인, 복부 내 공기 분포를 측정하는 장치.
  6. 제1항에 있어서,
    상기 예측 마스크 이미지는,
    상기 복부 내 공기의 깊이에 따라 명암 값을 구분하여 표현된 것인, 복부 내 공기 분포를 측정하는 장치.
  7. 제6항에 있어서,
    상기 출력부는,
    상기 예측 마스크 이미지의 명암 값에 기초하여 상기 복부 내 공기의 양을 계산한 결과를 출력하는 것인, 복부 내 공기 분포를 측정하는 장치.
  8. 제7항에 있어서,
    상기 출력부는,
    상기 예측 마스크 이미지의 명암 값에 기초하여 상기 복부 내 공기의 깊이 따라 색상이 구분된 예측 마스크 이미지를 출력하는 것인, 복부 내 공기 분포를 측정하는 장치.
  9. 제8항에 있어서,
    상기 복부 내 공기 분포를 측정하는 장치는,
    상기 산출된 공기의 양을 기초하여 상기 대상자의 복부 내 이상 유무 결과를 도출하고, 상기 예측 결과와 연계하여 상기 대상자의 발병 가능 질병을 진단하는 진단부를 더 포함하는 것인, 복부 내 공기 분포를 측정하는 장치.
  10. 제9항에 있어서,
    상기 진단부는,
    상기 계산된 복부 내 공기의 양에 기초하여 미리 설정된 값 이상인지 판단하여 상기 복부 내 장기의 이상 여부를 판단하고, 상기 색상이 구분된 예측 마스크 이미지에 기초하여 상기 복부 내 장기 중 이상이 있는 영역을 진단하는 것인, 복부 내 공기 분포를 측정하는 장치.
  11. 복부 내 공기 분포를 측정하는 방법에 있어서,
    복부 이미지와 상기 복부 이미지에서 공기 영역이 미리 표시된 마스킹 이미지를 획득하는 단계;
    상기 복부 이미지 및 마스킹 이미지를 변형하여 복수의 이미지를 생성하는 단계;
    상기 생성된 복수의 이미지를 학습하여 상기 복부 내 공기 영역을 분할하는 모델을 생성하는 단계;
    대상자의 복부 이미지를 상기 생성된 모델에 입력하여 상기 복부 내 공기 영역을 분할하는 단계;
    상기 분할된 대상자의 복부 내 공기 영역을 깊이에 따라 구분한 예측 마스크 이미지 또는 상기 대상자의 복부 내 공기의 양을 계산한 결과를 출력하는 단계;
    를 포함하는, 복부 내 공기 분포를 측정하는 방법.
  12. 제11항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2023/012913 2022-09-02 2023-08-30 복부 내 공기 분포를 측정하는 장치 및 방법 WO2024049208A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0111403 2022-09-02
KR1020220111403A KR20240032436A (ko) 2022-09-02 2022-09-02 복부 내 공기 분포를 측정하는 장치 및 방법

Publications (1)

Publication Number Publication Date
WO2024049208A1 true WO2024049208A1 (ko) 2024-03-07

Family

ID=90098336

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/012913 WO2024049208A1 (ko) 2022-09-02 2023-08-30 복부 내 공기 분포를 측정하는 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20240032436A (ko)
WO (1) WO2024049208A1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180240235A1 (en) * 2017-02-23 2018-08-23 Zebra Medical Vision Ltd. Convolutional neural network for segmentation of medical anatomical images
KR20210020618A (ko) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 의료 영상에서 딥러닝에 기반한 복부 장기 자동분할 방법
KR20210042432A (ko) * 2019-10-08 2021-04-20 사회복지법인 삼성생명공익재단 방사선 치료 계획 수립을 위한 인공지능 기반의 장기 및 종양 이미지 분할 시스템 및 방법
WO2022084286A1 (en) * 2020-10-22 2022-04-28 Visible Patient Method and system for segmenting and identifying at least one tubular structure in medical images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180240235A1 (en) * 2017-02-23 2018-08-23 Zebra Medical Vision Ltd. Convolutional neural network for segmentation of medical anatomical images
KR20210020618A (ko) * 2019-08-16 2021-02-24 서울여자대학교 산학협력단 의료 영상에서 딥러닝에 기반한 복부 장기 자동분할 방법
KR20210042432A (ko) * 2019-10-08 2021-04-20 사회복지법인 삼성생명공익재단 방사선 치료 계획 수립을 위한 인공지능 기반의 장기 및 종양 이미지 분할 시스템 및 방법
WO2022084286A1 (en) * 2020-10-22 2022-04-28 Visible Patient Method and system for segmenting and identifying at least one tubular structure in medical images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LU HONGYA, WANG HAIFENG, ZHANG QIANQIAN, YOON SANG WON, WON DAEHAN: "A 3D Convolutional Neural Network for Volumetric Image Semantic Segmentation", PROCEDIA MANUFACTURING, ELSEVIER B.V. NETHERLANDS, 43RD NORTH AMERICAN MANUFACTURING RESEARCH CONFERENCE, NAMRC 43, 8-12 JUNE 2015, UNC CHARLOTTE, NORTH CAROLINA, UNITED STATES, vol. 39, 1 January 2019 (2019-01-01), 43rd North American Manufacturing Research Conference, NAMRC 43, 8-12 June 2015, UNC Charlotte, North Carolina, United States , pages 422 - 428, XP055910338, ISSN: 2351-9789, DOI: 10.1016/j.promfg.2020.01.386 *

Also Published As

Publication number Publication date
KR20240032436A (ko) 2024-03-12

Similar Documents

Publication Publication Date Title
de Groof et al. Deep learning algorithm detection of Barrett’s neoplasia with high accuracy during live endoscopic procedures: a pilot study (with video)
CN110600122B (zh) 一种消化道影像的处理方法、装置、以及医疗系统
Nakashima et al. Endoscopic three-categorical diagnosis of Helicobacter pylori infection using linked color imaging and deep learning: a single-center prospective study (with video)
WO2019103440A1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
WO2017051943A1 (ko) 영상 생성 방법 및 장치, 및 영상 분석 방법
WO2018155765A1 (ko) 컴퓨터 단층촬영 영상에서 플라크를 분석하기 위한 방법 및 장치
WO2019098415A1 (ko) 자궁경부암에 대한 피검체의 발병 여부를 판정하는 방법 및 이를 이용한 장치
CN109460717A (zh) 消化道共聚焦激光显微内镜病变图像识别方法及装置
WO2021034138A1 (ko) 치매 평가 방법 및 이를 이용한 장치
WO2020180135A1 (ko) 뇌 질환 예측 장치 및 방법, 뇌 질환을 예측하기 위한 학습 장치
Xu et al. Upper gastrointestinal anatomy detection with multi‐task convolutional neural networks
WO2019189972A1 (ko) 치매를 진단을 하기 위해 홍채 영상을 인공지능으로 분석하는 방법
Li et al. Towards reliable cardiac image segmentation: Assessing image-level and pixel-level segmentation quality via self-reflective references
Li et al. NIA-Network: Towards improving lung CT infection detection for COVID-19 diagnosis
Magrelli et al. Classification of lung disease in children by using lung ultrasound images and deep convolutional neural network
WO2021002669A1 (ko) 병변 통합 학습 모델을 구축하는 장치와 방법, 및 상기 병변 통합 학습 모델을 사용하여 병변을 진단하는 장치와 방법
WO2024049208A1 (ko) 복부 내 공기 분포를 측정하는 장치 및 방법
WO2021054700A1 (ko) 치아 병변 정보 제공 방법 및 이를 이용한 장치
WO2020246676A1 (ko) 자궁경부암 자동 진단 시스템
WO2023027248A1 (ko) 데이터 생성 방법 및 이를 이용한 학습방법 및 장치
Laiz et al. Anatomical landmarks localization for capsule endoscopy studies
WO2022177044A1 (ko) 주목 메커니즘 기반의 멀티 스케일 조건부 적대적 생성 신경망을 활용한 고해상도 흉부 x선 영상 생성 장치 및 방법
WO2021015490A2 (ko) 이미지의 특이 영역 분석 방법 및 장치
Giger Medical imaging of COVID-19
CN112396597A (zh) 不明原因肺炎影像快速筛查方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23860884

Country of ref document: EP

Kind code of ref document: A1