WO2023204342A1 - Deep learning-based image conversion method and system therefor - Google Patents

Deep learning-based image conversion method and system therefor Download PDF

Info

Publication number
WO2023204342A1
WO2023204342A1 PCT/KR2022/006685 KR2022006685W WO2023204342A1 WO 2023204342 A1 WO2023204342 A1 WO 2023204342A1 KR 2022006685 W KR2022006685 W KR 2022006685W WO 2023204342 A1 WO2023204342 A1 WO 2023204342A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
domain
quality
paired
deep learning
Prior art date
Application number
PCT/KR2022/006685
Other languages
French (fr)
Korean (ko)
Inventor
유승훈
나창주
이태석
박정훈
Original Assignee
탈로스 메디컬 테크널러지 컴퍼니 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 탈로스 메디컬 테크널러지 컴퍼니 리미티드 filed Critical 탈로스 메디컬 테크널러지 컴퍼니 리미티드
Publication of WO2023204342A1 publication Critical patent/WO2023204342A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection

Definitions

  • the present disclosure relates to a deep learning-based image conversion method and system. More specifically, a method of converting an image of a source domain into an image of a target domain using a deep learning model. and a system for performing the method.
  • Deep-learning technology is attracting attention by showing results that exceed the performance of existing technologies in analyzing various types of data such as images, voices, and texts.
  • deep learning technology is being introduced and utilized in various fields due to the scalability and flexibility inherent in the technology itself, and is also being used for purposes such as data transformation (or creation) beyond data analysis.
  • the medical field is the field that is most actively introducing deep learning technology to improve existing diagnostic processes.
  • deep learning models that detect lesions or diagnose diseases in medical images of patients are being introduced and utilized in the actual diagnosis process.
  • the technical problem to be solved through some embodiments of the present disclosure is a method for accurately converting an image of a source domain into an image of a target domain using a deep learning model, and how to perform the method. providing a system.
  • Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for accurately converting a low-quality image (e.g. MR image) into a high-quality image using a deep learning model and a system for performing the method. It is done.
  • a low-quality image e.g. MR image
  • a deep learning model e.g. MR image
  • Another technical problem to be solved through some embodiments of the present disclosure is a method for accurately converting an MR (Magnetic Resonance) image into a CT (Computed Tomography) image using a deep learning model, and a system for performing the method. is to provide.
  • Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for building a high-performance deep learning model that accurately performs domain conversion and a system for performing the method.
  • Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for generating a paired image set from an unpaired image set for multiple domains and a system for performing the method. It is provided.
  • Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for accurately evaluating the quality of a synthetic image generated through a deep learning model and a system for performing the method.
  • an image conversion method is a method performed by at least one computing device, and includes an unpaired image conversion method including an image of a first domain and an image of a second domain.
  • the unpaired image set is a magnetic resonance (MR) image set
  • the image of the second domain may be an MR image with a higher field than the image of the first domain
  • generating the paired image set may include generating the paired image set by matching the image of the first domain and the image of the second domain.
  • the step of generating the paired image set includes synthesizing the image of the first domain into the second domain using a GAN (Generative Adversarial Networks) model with domain translation capability. It may include converting the image into a synthetic image and configuring the image of the first domain and the composite image of the second domain into a pair.
  • GAN Geneative Adversarial Networks
  • the step of generating the paired image set includes matching an image of the first domain and an image of the second domain to generate a matched image, at least a portion of the unpaired image set and the It may include learning the generated matched image to build a GAN (Generative Adversarial Networks) model with domain transformation capability, and generating at least a portion of the paired image set using the built GAN model.
  • GAN Geneative Adversarial Networks
  • the generated registered image is an image belonging to the second domain
  • the GAN model is constructed by learning the image of the first domain and the generated registered image
  • the part generating step includes converting the image of the first domain into a synthetic image of the second domain through the constructed GAN model and synthesizing the image of the first domain and the second domain. It may include configuring images into pairs.
  • the step of converting the first image into a second image of higher quality than the first image using the constructed deep learning model may be further included.
  • further comprising evaluating the quality of the second image using a designated evaluation metric wherein the designated evaluation metric includes a correlation coefficient between the first image and the second image, and the first image. It may include a difference in signal-to-noise ratio of the second image and a difference in pixel intensity between the first image and the second image.
  • the first image is a MR (Magnetic Resonance) image of the patient being diagnosed
  • the second image is converted to a CT image using another deep learning model learned to convert the MR image into a CT (Computer Tomography) image.
  • a conversion step may be further included.
  • the deep learning model includes an encoder and a decoder
  • the encoder includes a plurality of encoding blocks for extracting feature data of different abstraction levels from an input image
  • the decoder includes the plurality of encoding blocks. and a plurality of decoding blocks corresponding to the plurality of encoding blocks, and a skip-connection that transfers the extracted feature data may be formed between the plurality of encoding blocks and the plurality of decoding blocks.
  • the image conversion method is a method performed by at least one computing device, and is a method of acquiring a first MR (Magnetic Resonance) image for the subject being diagnosed. Step, converting the first MR image into a second MR image through a first deep learning model - the second MR image is a higher quality image than the first MR image - and converting the first MR image into a second MR image through a second deep learning model. It may include converting the second MR image into a CT (Computed Tomography) image.
  • CT Computer Tomography
  • an image conversion method is a method performed by at least one computing device, including an image of a first domain and an image of a second domain. Obtaining an unpaired image set, generating a paired image set from the obtained unpaired image set, and performing domain transformation on the input image using the generated paired image set. It may include the step of building a deep learning model.
  • An image conversion system for solving the above-described technical problems, and an image conversion system according to some other embodiments of the present disclosure for solving the above-mentioned technical problems.
  • Comprising one or more processors and a memory that stores one or more instructions wherein the one or more processors execute the one or more stored instructions, thereby generating an unpaired image including an image of a first domain and an image of a second domain.
  • An operation of acquiring a set - the image of the second domain is a higher quality image than the image of the first domain -
  • an operation of generating a paired image set from the obtained unpaired image set and the generated pair Using the image set, you can build a deep learning model that performs quality conversion on the input image.
  • a computer program for solving the above-described technical problem includes the steps of acquiring an unpaired image set including an image of a first domain and an image of a second domain - the second domain The image of the domain is a higher quality image than the image of the first domain. - Generating a paired image set from the obtained unpaired image set and using the generated paired image set to input the image. It can be stored in a computer-readable recording medium to execute the step of building a deep learning model that performs quality conversion.
  • a paired image set is generated from an unpaired image set for multiple domains, and a deep learning model that performs domain transformation using the generated paired image set.
  • a deep learning model that accurately performs domain conversion can be constructed, and the image of the first domain (i.e., source domain) can be accurately converted to an image of the second domain (i.e., target domain) through the constructed deep learning model.
  • a low-quality image e.g. MR image
  • a first type of image e.g. MR image
  • a second type of image e.g. CT image
  • the MR (Magnetic Resonance) image of the patient being diagnosed can be converted into a higher quality MR image through a deep learning model.
  • high-quality MR images can be easily secured even in hospitals (or environments) equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), and the diagnostic process and overall medical environment can be greatly improved.
  • the MR image of the patient being diagnosed can be converted into a CT (Computer Tomography) image through a deep learning model.
  • CT Computer Tomography
  • the patient being diagnosed can be free from the risk of radiation exposure because there is no need for a CT scan.
  • the overall diagnostic process can be simplified because the patient does not need to undergo multiple imaging tests to receive a comprehensive diagnosis of various diseases. Furthermore, the time and financial costs required for imaging tests can be reduced.
  • the MR image of the patient being diagnosed can be converted into a higher quality MR image through a deep learning model, and the MR image converted through another deep learning model can be converted into a CT image.
  • CT images of fairly high quality can be generated, the patient being diagnosed can be completely free from the risk of radiation exposure.
  • high-quality MR and CT images can be easily secured even in hospitals equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), which can greatly improve the diagnostic process and overall medical environment.
  • the quality of synthetic images i.e., images converted through deep learning models
  • the quality of synthetic images generated based on correlation coefficients, signal-to-noise ratio differences, and/or pixel intensity (or signal intensity) differences can be quantitatively determined. can be accurately evaluated.
  • a paired image set can be created from an unpaired image set using an image matching technique. Accordingly, paired image sets for multiple domains can be easily secured, and the time and human costs required to secure a paired image set can be greatly reduced. In addition, by using the generated paired image set, a high-performance deep learning model that accurately performs domain transformation can be easily built.
  • a paired image set can be created from an unpaired image set using a GAN (Generative Adversarial Networks) model with domain transformation capability. Accordingly, paired image sets for multiple domains can be easily secured, and the time and human costs required to secure a paired image set can be greatly reduced. In addition, by using the generated paired image set, a high-performance deep learning model that accurately performs domain transformation can be easily built.
  • GAN Geneative Adversarial Networks
  • a high-quality paired image set can be generated from an unpaired image set using a GAN model with image matching techniques and domain transformation capabilities. Accordingly, high-quality paired image sets for multiple domains can be secured at a low cost, and as a result, high-performance deep learning models that accurately perform domain transformation can be more easily built.
  • 1 to 3 are exemplary diagrams for explaining an image conversion system according to some embodiments of the present disclosure.
  • FIG 4 illustrates an example diagnostic process that has changed with the introduction of an image conversion system according to some embodiments of the present disclosure.
  • FIG. 5 is an exemplary diagram schematically illustrating a method of generating a paired image set of an image conversion system according to some embodiments of the present disclosure.
  • FIG. 6 is an example flowchart illustrating an image conversion method according to some embodiments of the present disclosure.
  • FIG. 7 is an exemplary diagram illustrating the structure and operation of a deep learning model with image quality conversion capability according to an embodiment of the present disclosure.
  • FIG. 8 is an exemplary diagram for explaining the structure and operation of a deep learning model with image type conversion capability according to an embodiment of the present disclosure.
  • Figure 9 is an exemplary flowchart showing a method of generating a paired image set according to an embodiment of the present disclosure.
  • FIGS. 10 and 11 are exemplary diagrams to further explain a method of generating a paired image set according to an embodiment of the present disclosure.
  • FIG. 12 is an exemplary flowchart showing a method of generating a paired image set according to another embodiment of the present disclosure.
  • FIG. 13 and 14 are exemplary diagrams for explaining the structure and learning method of a GAN (Generative Adversarial Networks) model with domain transformation capability according to some embodiments of the present disclosure.
  • GAN Geneative Adversarial Networks
  • 15 and 16 are exemplary diagrams to further explain a method of generating a paired image set according to another embodiment of the present disclosure.
  • Figure 17 is an example flowchart showing a method of generating a paired image set according to another embodiment of the present disclosure.
  • 18 and 19 are exemplary diagrams to further explain a method of generating a paired image set according to another embodiment of the present disclosure.
  • FIG 20 illustrates an example computing device that can implement an image conversion system according to some embodiments of the present disclosure.
  • first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term.
  • a component is described as being “connected,” “coupled,” or “connected” to another component, that component may be directly connected or connected to that other component, but there is another component between each component. It will be understood that elements may be “connected,” “combined,” or “connected.”
  • “comprises” and/or “comprising” refers to a referenced component, step, operation and/or element that includes one or more other components, steps, operations and/or elements. Does not exclude presence or addition.
  • FIG. 1 is an exemplary diagram for explaining an image conversion system 10 according to some embodiments of the present disclosure.
  • the image conversion system 10 uses a deep learning model 13 to convert the image 11 of the first domain (i.e., source domain) into an image of the second domain (i.e., target domain). It may be a system that can be converted to (12). For example, the image conversion system 10 may convert (improve) the quality of the image 11 or convert the type of the image 11 using the deep learning model 13.
  • the image conversion system 10 will be abbreviated as 'conversion system 10'.
  • the images 11 and 12 of the two domains may be, for example, images from the medical field, but the scope of the present disclosure is not limited thereto.
  • the images 11 and 12 of the two domains may be images from a non-medical field.
  • the first domain image 11 and the second domain image 12 may be images from different fields.
  • Images in the medical field can encompass all various types of images handled in the medical field, such as MR (Magnetic Resonance) images, CT (Computed Tomography) images, etc. Additionally, MR images and CT images may be, for example, two-dimensional slice (cross-section) images, three-dimensional images, etc., but the scope of the present disclosure is not limited thereto.
  • the transformation system 10 builds at least one deep learning model 13 with domain translation (domain translation or domain transform) capability, and uses the built deep learning model 13 to transform the system in various ways. Domain conversion can be performed.
  • the conversion system 10 can convert a low-quality image 21 into a high-quality image 22 through the deep learning model 23 (i.e., in this example , the first domain consists of low-quality images, and the second domain consists of high-quality images).
  • the deep learning model 23 may be a model equipped with quality conversion (improvement) capabilities by learning an image set (i.e., training image set) composed of low-quality training images and high-quality training images.
  • a high-quality training image refers to an image with relatively higher quality than a low-quality training image, such as pixel intensity, resolution, signal-to-noise ratio, and sharpness (e.g. pixel value). contrast) may be an excellent image, but the scope of the present disclosure is not limited thereto.
  • the conversion system 10 can convert a low-quality MR image (e.g. 21) into a high-quality MR image (e.g. 22) through a deep learning model (e.g. 23).
  • This deep learning model (e.g. 23) can be built by learning an image set composed of low-quality training MR images and high-quality training MR images.
  • high-quality training MR images may be, for example, MR images with relatively excellent signal-to-noise ratio and/or signal intensity, high-field MR images, etc.
  • a deep learning model e.g.
  • the conversion system 10 may convert a low-quality CT image (e.g. 21) into a high-quality CT image (e.g. 22) through a deep learning model (e.g. 23).
  • the conversion system 10 may convert the first type of image 31 into the second type of image 32 through the deep learning model 33 (i.e. , in this example, the first domain consists of images of the first type, and the second domain consists of images of the second type).
  • This deep learning model 33 can be constructed by learning an image set consisting of a first type of training image and a second type of training image.
  • the conversion system 10 may convert the MR image 41 into a CT image 42 through the deep learning model 43.
  • This deep learning model 43 can be built by learning an image set composed of training MR images and training CT images.
  • the patient being diagnosed can be free from the risk of radiation exposure because there is no need for a CT scan.
  • the overall diagnostic process can be simplified because the patient does not need to undergo multiple imaging tests to receive a comprehensive diagnosis of various diseases.
  • the time and financial costs required for imaging tests can be reduced.
  • the conversion system 10 may convert a CT image (e.g. 31) into an MR image (e.g. 32) through a deep learning model (e.g. 33).
  • the conversion system 10 may convert an image with a high difficulty in abnormality detection into an image with a low difficulty in abnormality detection through a deep learning model.
  • This deep learning model can be built by learning an image set composed of training images with high difficulty in detecting anomalies and training images with low difficulty in detecting anomalies.
  • the difficulty of anomaly detection may be determined based on, for example, the confidence score of a deep learning model that performs anomaly detection.
  • the conversion system 10 converts a medical image with a high difficulty in lesion detection (e.g. an image for which a deep learning model performing lesion detection outputs an ambiguous confidence score) into a medical image with a low difficulty in lesion detection through a deep learning model. It can be converted to .
  • This deep learning model can be built by learning an image set consisting of training images with high lesion detection difficulty and training images with low lesion detection difficulty. According to this example, by lowering the difficulty of detecting lesions in medical images, the accuracy of deep learning models that perform lesion detection can be improved, and the psychological costs, time costs, and financial costs of the diagnosed person caused by false detections can also be reduced. It can be.
  • conversion system 10 may perform image conversion based on a combination of the various examples described above.
  • the conversion system 10 converts the first image into a higher-quality second image using a first deep learning model (e.g. 23), and converts the second image to a higher quality second image using a second deep learning model (e.g. 33). It can be converted to other types of images.
  • the conversion system 10 converts the first MR image into a higher quality second MR image through a first deep learning model (e.g. 23), and converts the first MR image into a higher quality second MR image through a second deep learning model (e.g. 33).
  • the second MR image can be converted to a CT image.
  • CT images of fairly high quality can be generated, the patient being diagnosed can be completely free from the risk of radiation exposure.
  • high-quality MR and CT images can be easily secured even in hospitals equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), which can greatly improve the diagnostic process and overall medical environment.
  • the conversion system 10 performs image conversion using a deep learning model 13 with domain conversion capability, so it may be important to build a high-performance deep learning model 13.
  • paired image sets for multiple domains e.g. first domain and second domain
  • paired image sets for multiple domains. For example, let's assume that we are building a deep learning model that converts low-quality MR images into high-quality MR images in the medical field. In this case, securing a paired image set for MR images of different quality (e.g. low-field MR images and high-field MR images) may be nearly impossible or consume significant time and cost. This is because it is very rare for a single patient to undergo imaging using different MRI equipment at the same hospital.
  • different quality e.g. low-field MR images and high-field MR images
  • the conversion system 10 generates a paired image set from an unpaired image set for multiple domains and uses the generated paired image set.
  • a high-performance deep learning model (13) can be built.
  • the transformation system 10 pairs the unpaired image set 51 using a GAN (Generative Adversarial Networks) model 53 with an image matching technique and/or domain transformation capability. It can be converted to image set (52).
  • GAN Geneative Adversarial Networks
  • image set 5
  • a high-performance deep learning model 13 can be built at a relatively low cost, which will be described in detail later with reference to FIGS. 9 to 19.
  • FIG. 1 shows the transformation system 10 as if performing a one-way transformation from one domain (ie, the first domain) to another domain (ie, the second domain).
  • transformation system 10 may also operate to perform bidirectional transformation between multiple domains.
  • Transformation system 10 may be implemented with at least one computing device. For example, all of the functionality of conversion system 10 may be implemented in a single computing device, with a first function of conversion system 10 being implemented in a first computing device and a second functionality in a second computing device. It may be implemented. Alternatively, certain functions of conversion system 10 may be implemented on multiple computing devices.
  • Computing devices may encompass various types of devices equipped with computing functions, and for an example of such devices, refer to FIG. 20.
  • FIG. 6 is an example flowchart schematically illustrating an image conversion method according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
  • an unpaired image set may mean an image set composed of a low-quality image and a high-quality image, but the two images are not paired with each other.
  • low-quality images and high-quality images may be obtained from different patients (or hospitals, etc.).
  • a paired image set may be created from the obtained unpaired image set.
  • the specific method of generating a paired image set may vary depending on the embodiment.
  • a paired image set may be created using an image matching technique. This embodiment will be described in detail later with reference to FIGS. 9 to 11.
  • a paired image set can be created using a GAN model with domain transformation capabilities. This embodiment will be described in detail later with reference to FIGS. 12 to 16.
  • a paired image set can be created using an image matching technique and a GAN model together. In this case, a better quality paired image set can be generated, and this embodiment will be described in detail later with reference to FIGS. 17 to 19.
  • the similarity between two images may be evaluated during the process of generating a paired image set. Additionally, based on the evaluation result that the similarity is greater than or equal to the standard value, the two images may be configured as a pair. For example, the conversion system 10 may calculate the correlation coefficient of the two images and configure the two images as a pair in response to a determination that the correlation coefficient is greater than a reference value. By doing so, a higher quality paired image set can be generated.
  • the formula (or method) for calculating the correlation coefficient between two images so description of the correlation coefficient itself will be omitted.
  • a deep learning model that performs quality conversion (improvement) on the input image can be built using the generated paired image set.
  • the conversion system 10 can train a deep learning model using a pair of low-quality images and high-quality images, thereby enabling the deep learning model to have the ability to convert (improve) the quality of the input image.
  • the detailed structure of the deep learning model can be designed and implemented in various ways.
  • a deep learning model may be composed of an encoder that encodes the input image 71 and a decoder that decodes the encoded data and outputs a higher quality image 76.
  • Figure 7 illustrates the case where the input image 71 is an MR image.
  • the encoder of the deep learning model may be composed of a plurality of encoding blocks that extract feature data (e.g. 72, 73; i.e., feature map) of different abstraction levels from the input image 71.
  • Each encoding block may be composed of, for example, a convolutional layer, a down-sampling layer (e.g. pooling layer), etc., but the scope of the present disclosure is not limited thereto.
  • the decoder of a deep learning model may be composed of a plurality of decoding blocks, and each decoding block may be divided into, for example, a convolution layer, a de-convolutional layer, an upsampling layer, etc.
  • a plurality of decoding blocks may correspond to a plurality of encoding blocks, and there is a skip-connection (e.g. 74, 75; skip-connection) that transfers feature data (e.g. 72, 73) between the decoding block and the encoding block. can be formed. Since each decoding block performs decoding by collecting (e.g. concatenation) the feature data (e.g.
  • FIG. 7 illustrates that the deep learning model is composed of a U-shaped structure, but the deep learning model may be composed of a W-shaped structure (i.e., a structure in which a U-shaped network is repeated).
  • the deep learning model illustrated in FIG. 7 is a model specialized for performing pixel-wise prediction (pixel-wise prediction or dense prediction) tasks, and quality conversion (improvement) for the input image 71 also ultimately involves the performance of each pixel. Because it is a type of task that predicts values, quality conversion can be performed with fairly high accuracy using the deep learning model illustrated in FIG. 7.
  • the deep learning model may be implemented as a GAN model with domain transformation capabilities.
  • GAN models may include UNIT (Unsupervised Image-to-Image Translation), MUNIT (Multimodal Unsupervised Image-to-Image Translation), Star-GAN, etc., but the scope of the present disclosure is not limited thereto.
  • step S64 quality conversion on the image may be performed using the constructed deep learning model.
  • the conversion system 10 can convert a medical image of a diagnosed patient into a higher quality medical image through the built deep learning model.
  • the conversion system 10 can convert an MR image of a patient being diagnosed into a higher quality MR image or convert a CT image into a higher quality CT image.
  • the quality of the converted image is evaluated. Additional steps may be performed.
  • the conversion system 10 may convert a first image into a higher quality second image through a deep learning model and evaluate the quality of the second image using a designated evaluation metric.
  • the designated evaluation metric may be, for example, a correlation coefficient between the first image and the second image, a difference in signal-to-noise ratio, a difference in pixel intensity (or signal intensity) (e.g. difference in average pixel intensity value), etc.
  • the scope of the present disclosure is not limited thereto.
  • the conversion system 10 determines that the larger the value of the correlation coefficient and the larger the difference in signal-to-noise ratio (i.e., the more the signal-to-noise ratio value of the second image increases compared to the first image), the difference in the average pixel intensity value.
  • a step of converting the type of the converted image through another deep learning model learned to convert the type of the image may be further performed.
  • the conversion system 10 converts the first MR image of the diagnosed patient into a higher-quality second MR image through the constructed deep learning model, and converts the second MR image into a CT image through another deep learning model. You can. By doing so, the diagnosed patient can be free from the risk of radiation exposure, and high-quality MR images and CT images can be easily secured even in hospitals equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), thereby facilitating diagnosis. Processes and the overall healthcare environment can be significantly improved.
  • the conversion system 10 may evaluate the quality of the second MR image and convert the second MR image into a CT image in response to a determination that the evaluated quality satisfies a predetermined condition.
  • the quality of the MR image can be evaluated based on evaluation metrics such as correlation coefficient, signal-to-noise ratio difference, signal intensity difference, etc., as described above.
  • a deep learning model that converts the type of image has a similar structure to the deep learning model that performs image quality conversion and can be built in a similar manner.
  • the deep learning model that converts the MR image 81 into the CT image 82 may be implemented as a neural network with a U-shaped similar structure (e.g. U-shaped, W-shaped), and FIG. 6 It may have been constructed according to the method illustrated in .
  • the deep learning model may be implemented as a GAN model with domain transformation capabilities.
  • a paired image set can be created from an unpaired image set for multiple domains, and a deep learning model that performs image quality conversion using the generated paired image set can be built. Accordingly, a deep learning model that accurately performs image quality conversion can be built, and low-quality images (e.g. MR images) can be accurately converted into high-quality images.
  • a deep learning model that accurately performs image quality conversion can be built, and low-quality images (e.g. MR images) can be accurately converted into high-quality images.
  • the conversion system 10 acquires an unpaired image set consisting of an image of a first domain (e.g. an image of a first type) and an image of a second domain (e.g. an image of a second type), and the obtained unpaired image
  • a paired image set is created from the set, and various deep learning models that perform domain transformation on the input image can be built using the created paired image set.
  • the conversion system 10 is a deep learning model that generates a paired image set from an unpaired image set composed of MR images and CT images, and converts the input MR image into a CT image using the generated paired image set. You can also build .
  • the images constituting the given unpaired image set will be referred to as 'original images' to distinguish them from other images (e.g. registered images and composite images, which will be described later). Additionally, to provide convenience of understanding, the explanation will be continued assuming that the unpaired image set consists of low-quality images and high-quality images. However, the scope of the present disclosure is not limited thereto, and even when the unpaired image set consists of a first type of image (e.g. MR image) and a second type of image (e.g. CT image), the following description does not apply to practical technical purposes. It can be applied without changing the ideology.
  • a first type of image e.g. MR image
  • CT image e.g. CT image
  • Figure 9 is an exemplary flowchart showing a method of generating a paired image set according to an embodiment of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
  • this embodiment may begin at step S91, where a low-quality original image and a high-quality original image are matched to generate a registered image.
  • the conversion system 10 may generate a low-quality registered image by matching (or transforming) a low-quality original image to a high-quality image.
  • the conversion system 10 may generate a high-quality registered image by matching (or transforming) a high-quality original image to a low-quality image.
  • registration of the two images may be performed through, for example, a deformable registration technique, but the scope of the present disclosure is not limited thereto, and other registration techniques may be applied.
  • the original image and the registered image may be configured as a pair.
  • the conversion system 10 may configure a low-quality original image and a high-quality registered image as a pair.
  • the conversion system 10 may configure a high-quality original image and a low-quality matched image as a pair.
  • the unpaired image set can be converted to a paired image set.
  • Figures 10 and 11 illustrate that a paired image set (112 in Figure 11) is generated from an unpaired image set (111 in Figure 11) through a transformation matching technique.
  • the low-quality image 101 constituting the unpaired image set (111 in FIG. 11) is a low-field MR image (e.g. 0.06T)
  • the high-quality image 102 is a high-field MR image (e.g. 1.5T). It illustrates this.
  • 'deformed 1.5T' refers to a registered MR image generated from the original 1.5T MR image (see 'Original 1.5T').
  • a high-quality registered image 103 can be generated from a high-quality image 102 through a transformation registration technique. That is, by transforming the high-quality image 102 to fit the low-quality image 101, a high-quality registered image 103 can be generated. However, in some cases, a low-quality registered image (not shown) may be generated by transforming the low-quality image 101 to fit the high-quality image 102.
  • the generated registered image 103 and the original image 101 of different quality can be composed of a pair, and as this process is repeated, as shown in FIG. 11, from the unpaired image set 111 A paired image set 112 may be created.
  • a method for generating a paired image set has been described with reference to FIGS. 9 to 11 .
  • a paired image set (e.g. 112) can be created from an unpaired image set (e.g. 111) using an image matching technique.
  • a paired image set (e.g. 112) for multiple domains can be easily secured, and the time and human costs required to secure a paired image set (e.g. 112) can be greatly reduced.
  • a high-performance deep learning model that accurately performs domain transformation can be easily built.
  • Figure 12 is an example flowchart showing a paired image set according to another embodiment of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
  • this embodiment may begin at step S121 of training a GAN model using an unpaired image set.
  • the GAN model refers to a model that can have domain transformation capabilities by learning an unpaired image set. Examples of such models include Cycle-GAN, UNIT (Unsupervised Image-to-Image Translation), and MUNIT (Multimodal Unsupervised Image-Translation). to-Image Translation), etc.
  • Cycle-GAN Unsupervised Image-to-Image Translation
  • MUNIT Multimodal Unsupervised Image-Translation
  • to-Image Translation etc.
  • the scope of the present disclosure is not limited thereto.
  • the conversion system 10 can learn the GAN model using the unpaired image set as is, and as a result, the GAN model has the ability to convert low-quality images into high-quality images.
  • the structure and learning method of the GAN model will be further explained with reference to FIGS. 13 and 14.
  • Figure 13 is an example diagram for explaining the structure and learning method of a GAN model according to an embodiment of the present disclosure.
  • the GAN model is a Cycle-GAN model
  • the unpaired image set consists of low-quality MR images (e.g. low-field MR images of 0.06T) and high-quality MR images (e.g. high-field MR images of 1.5T). It illustrates this.
  • 'Synthetic 0.06T' and 'Synthetic 1.5T' are synthesis generated from original (actual) MR images of 0.06T and 1.5T, respectively (see 'Original 0.06T' and 'Original 1.5T'). It means MR image.
  • the GAN model according to this embodiment will be configured to include a first generator 131, a second generator 132, a first discriminator 133, and a second discriminator 134. You can.
  • the first generator 131 may convert high quality images 135-1 and 136-2 into low quality images 135-2 and 136-3. Additionally, the first discriminator 133 can determine whether the input low-quality images 136-1 and 135-2 are real images (see real) or synthetic images (see fake). Adversarial learning may be performed between the first generator 131 and the first discriminator 133.
  • the first generator 131 may be further trained using consistency loss.
  • the consistency error may be calculated based on the difference between the actual image 135-1 input to the first generator 131 and the composite image 135-3 converted through the second generator 132. By learning the consistency error, the first generator 131 can accurately perform image quality conversion even if the image set is not composed of pairs.
  • the second generator 132 may convert the low-quality images 136-1 and 135-2 into high-quality images 136-2 and 135-3. Additionally, the second discriminator 134 can determine whether the input high-quality images 135-1 and 136-2 are real images (see real) or synthetic images (see fake). Adversarial learning may be performed between the second generator 132 and the second discriminator 134.
  • the second generator 132 may also be further learned using the consistency error. Since the learning method of the second generator 132 is similar to that of the first generator 131, further description will be omitted.
  • a high-quality image (e.g. 135-1) can be converted into a low-quality synthetic image (e.g. 135-2) through the first generator 131, and through the second generator 132
  • a low-quality image (e.g. 136-1) can be converted into a high-quality composite image (e.g. 136-2).
  • Figure 14 is an example diagram for explaining the structure and learning method of a GAN model according to another embodiment of the present disclosure.
  • the GAN model is a UNIT model
  • the unpaired image set is composed of low-quality MR images (e.g. low-field MR images of 0.06T) and high-quality MR images (e.g. high-field MR images of 1.5T). I'm doing it.
  • the GAN model includes a first encoder 141, a first generator 143, and a first discriminator 145 associated with high quality, and a second encoder 142 associated with low quality. ), a second generator 144, and a second discriminator 146.
  • the first encoder 141 may encode the high-quality image 148-1 into encoding data 147
  • the second encoder 142 may encode the low-quality image 148-1 into encoding data 147.
  • Encoding data 147 may be understood as data on a latent shared space shared between high-quality and low-quality images (i.e., between different domains).
  • the first generator 143 may generate a high-quality composite image 148-2 based on the encoding data 147, and the second generator 144 may generate a low-quality composite image 148-2 based on the encoding data 147. 149-2) can be generated.
  • the first discriminator 145 can perform a discrimination operation on high-quality images (e.g. 148-2), and the second discriminator 146 can perform a discrimination operation on low-quality images (e.g. 149-2). there is.
  • Adversarial learning may be performed between the first discriminator 145 and the first generator 143, and adversarial learning may also be performed between the second discriminator 146 and the second generator 144.
  • learning may be performed according to the flow shown in FIG. 14 to convert the quality of the image.
  • the low-quality image 149-1 is converted into a high-quality composite image 148-2. Learning can be carried out as much as possible.
  • the high-quality image 148-1 is converted into a low-quality composite image 149-2. Learning can be performed.
  • specific learning methods please refer to the literature titled “UNIT; Unsupervised Image-to-Image Translation”. Actual image conversion can also be performed according to the flow shown in FIG. 14.
  • the original image of the unpaired image set can be converted into a synthetic image of different quality through the constructed GAN model.
  • the conversion system 10 may convert a high-quality original image (e.g. 135-1) into a low-quality composite image (e.g. 135-2) through the first generator 131.
  • the conversion system 10 may convert a low-quality original image (e.g. 136-1) into a high-quality composite image (e.g. 136-2) through the second generator 132.
  • a composite image of different quality from the original image may be configured as a pair.
  • the conversion system 10 can convert an unpaired image set into a paired image set by pairing a low-quality original image and a high-quality composite image and repeating this process.
  • the conversion system 10 may convert an unpaired image set into a paired image set by pairing a high-quality original image and a low-quality composite image and repeating this process.
  • Figures 15 and 16 illustrate that a paired image set (162, 163 in Figure 16) is generated from an unpaired image set (161 in Figure 16) through the GAN model 153.
  • the low-quality image 151 constituting the unpaired image set (161 in FIG. 16) is a low-field MR image (e.g. 0.06T)
  • the high-quality image 152 is a high-field MR image. (e.g. 1.5T).
  • a low-quality image 151 can be converted into a high-quality MR image 154 through the learned GAN model 153.
  • the high-quality image 152 may be converted into a low-quality composite image 155.
  • the high-quality composite image 154 and the low-quality original image 151 can be composed of a pair, and as this process is repeated, as shown in FIG. 16, the unpaired image set 161 is created.
  • 1 Paired image set 162 may be created.
  • the low-quality composite image 155 and the high-quality original image 152 may be composed of a pair, and as this process is repeated, a second image set from the unpaired image set 161 is obtained, as shown in FIG. 16.
  • a paired image set 163 may be created.
  • a method for generating a paired image set has been described with reference to FIGS. 12 to 16.
  • a paired image set (e.g. 162, 163) can be created from an unpaired image set (e.g. 161) using a GAN model with domain transformation capability.
  • paired image sets (e.g. 162, 163) for multiple domains can be easily secured, and the time and human costs required to secure paired image sets (e.g. 162, 163) can be greatly reduced.
  • a high-performance deep learning model that accurately performs domain transformation can be easily built.
  • Figure 17 is an example flowchart showing a method of generating a paired image set according to another embodiment of the present disclosure.
  • this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
  • this embodiment relates to a method of generating a paired image set using an image matching technique and a GAN model together.
  • this embodiment may begin at step S171, where a low-quality original image and a high-quality original image are matched to generate a matched image.
  • step S171 For a description of this step, refer to the description of step S91 described above.
  • a GAN model with domain transformation capability can be built using a paired image set consisting of an original image and a matched image.
  • the conversion system 10 can build a GAN model using a paired image set composed of a low-quality original image and a high-quality registered image, and a paired image set composed of a high-quality original image and a low-quality registered image. You can also build a GAN model using it.
  • paired image sets By using paired image sets, a more high-performance GAN model can be built.
  • the GAN model refers to a model that can acquire domain transformation capabilities by learning unpaired image sets and/or paired image sets. Examples of such models include Cycle-GAN, UNIT, MUNIT, Star-GAN, etc. can be mentioned. However, the scope of the present disclosure is not limited thereto. For a description of this step, refer to the description of step S121 described above.
  • the original image may be converted into a synthetic image of different quality through the constructed GAN model.
  • the conversion system 10 may convert a low-quality original image (or registered image) into a high-quality composite image.
  • the conversion system 10 may convert a high-quality original image (or registered image) into a low-quality composite image.
  • a composite image of different quality from the original image (or registered image) may be configured as a pair.
  • the conversion system 10 may configure a low-quality original image (or registered image) and a high-quality composite image as a pair (e.g. a low-quality original image and a high-quality composite image or a low-quality registered image and a high-quality composite image). there is.
  • the conversion system 10 may configure a low-quality composite image and a high-quality original image (or registered image) as a pair (e.g. a low-quality composite image and a high-quality original image or a low-quality composite image and a high-quality registered image). there is.
  • the conversion system 10 may also configure a registered image of a different quality from the original image into a pair (e.g. a low-quality original image and a high-quality registered image, or a low-quality registered image and a high-quality original image) (steps S171 and S172). reference).
  • a registered image of a different quality from the original image into a pair (e.g. a low-quality original image and a high-quality registered image, or a low-quality registered image and a high-quality original image) (steps S171 and S172). reference).
  • Figures 18 and 19 show the second and third paired image sets (Figure 19) from the first paired image set (191 in Figure 19) consisting of a low-quality original image and a high-quality matched image through the GAN model 183. 192 and 193) are examples of being created.
  • the low-quality image 181 constituting the paired image set (191 in FIG. 19) is a low-field MR image (e.g. 0.06T)
  • the high-quality image 184 is a high-magnetic field matched MR image. This is an example of an image (e.g. 1.5T).
  • a low-quality original image 181 can be converted into a high-quality synthetic image 182 through the learned GAN model 183.
  • the high-quality registered image 184 may be converted into a low-quality composite image 185.
  • the low-quality original image 181 and the high-quality composite image 182 may be composed of a pair, and as this process is repeated, as shown in FIG. 19, the first paired image set 191
  • the second paired image set 192 can be generated from.
  • the low-quality composite image 185 and the high-quality matched image 184 may be composed of a pair, and as this process is repeated, as shown in FIG. 19, from the first paired image set 191
  • a third paired image set 193 may be created.
  • a method for generating a paired image set has been described with reference to FIGS. 17 to 19.
  • a high-quality paired image set (e.g. 191 to 193) can be generated from an unpaired image set using a GAN model equipped with an image matching technique and domain transformation capability. Accordingly, high-quality paired image sets (e.g. 191 to 193) for multiple domains can be secured at a low cost, and as a result, a high-performance deep learning model that accurately performs domain conversion can be more easily built.
  • FIG. 20 An exemplary computing device 200 capable of implementing the conversion system 10 according to some embodiments of the present disclosure will be described with reference to FIG. 20.
  • FIG. 20 is an exemplary hardware configuration diagram showing the computing device 200.
  • the computing device 200 includes one or more processors 201, a bus 203, a communication interface 204, and a memory (loading) a computer program executed by the processor 201. 202) and a storage 205 that stores a computer program 206.
  • processors 201 a bus 203, a communication interface 204, and a memory (loading) a computer program executed by the processor 201. 202) and a storage 205 that stores a computer program 206.
  • FIG. 20 only components related to the embodiment of the present disclosure are shown in FIG. 20. Accordingly, a person skilled in the art to which this disclosure pertains can recognize that other general-purpose components may be included in addition to the components shown in FIG. 20 . That is, the computing device 200 may further include various components in addition to those shown in FIG. 20 . In some cases, the computing device 200 may be implemented with some of the components shown in FIG. 20 omitted.
  • the processor 201 may control the overall operation of each component of the computing device 200.
  • the processor 201 includes at least one of a Central Processing Unit (CPU), Micro Processor Unit (MPU), Micro Controller Unit (MCU), Graphic Processing Unit (GPU), or any type of processor well known in the art of the present disclosure. It can be configured to include. Additionally, the processor 201 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present disclosure.
  • Computing device 200 may include one or more processors.
  • memory 202 may store various data, instructions and/or information.
  • Memory 202 may load one or more programs 206 from storage 205 to execute methods/operations according to various embodiments of the present disclosure.
  • the memory 202 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.
  • the bus 203 may provide communication functionality between components of the computing device 200.
  • the bus 203 may be implemented as various types of buses, such as an address bus, a data bus, and a control bus.
  • the communication interface 204 may support wired and wireless Internet communication of the computing device 200. Additionally, the communication interface 204 may support various communication methods other than Internet communication. To this end, the communication interface 204 may be configured to include a communication module well known in the technical field of the present disclosure.
  • storage 205 may non-transitory store one or more computer programs 206.
  • the storage 205 may be a non-volatile memory such as Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), flash memory, a hard disk, a removable disk, or a device well known in the art to which this disclosure pertains. It may be configured to include any known type of computer-readable recording medium.
  • the computer program 206 may include one or more instructions that, when loaded into the memory 202, cause the processor 201 to perform methods/operations according to various embodiments of the present disclosure. That is, the processor 201 may perform methods/operations according to various embodiments of the present disclosure by executing one or more instructions.
  • instructions are a series of computer-readable instructions grouped based on function and are a component of a computer program and are executed by a processor.
  • the computer program 206 may perform an operation of acquiring an unpaired image set including an image of a first domain (e.g. a low-quality image) and an image of a second domain (e.g. a high-quality image), the obtained unpaired image It may include instructions for creating a paired image set from a set and constructing a deep learning model that performs domain conversion (e.g. quality conversion) on the input image using the generated paired image set.
  • domain conversion e.g. quality conversion
  • the technical idea of the present disclosure described so far with reference to FIGS. 1 to 20 may be implemented as computer-readable code on a computer-readable medium.
  • the computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). You can.
  • the computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet, installed on the other computing device, and thus used on the other computing device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

Provided are a deep learning-based image conversion method and a system therefor. An image conversion method, according to some embodiments of the present disclosure, may comprise: acquiring an unpaired image set including a low-quality image and a high-quality image; generating a paired image set from the acquired unpaired image set; and constructing a deep learning model that performs quality conversion (enhancement) on an input image by using the generated paired image set. Accordingly, a high-performance deep learning model that accurately performs quality conversion on an image may be easily constructed.

Description

딥러닝 기반 이미지 변환 방법 및 그 시스템Deep learning-based image conversion method and system
본 개시는 딥러닝 기반 이미지 변환 방법 및 그 시스템에 관한 것으로, 보다 상세하게는, 딥러닝 모델을 이용하여 소스 도메인(source domain)의 이미지를 타깃 도메인(target domain)의 이미지로 변환할 수 있는 방법 및 그 방법을 수행하는 시스템에 관한 것이다.The present disclosure relates to a deep learning-based image conversion method and system. More specifically, a method of converting an image of a source domain into an image of a target domain using a deep learning model. and a system for performing the method.
딥러닝(deep-learning) 기술은 이미지, 음성, 텍스트 등 다양한 형태의 데이터 분석에서 기존 기술의 성능을 상회하는 결과를 보이며 주목을 받고 있다. 또한, 딥러닝 기술은 기술 자체에 내재된 확장성 및 유연성으로 인해 다양한 분야에 도입되어 활용되고 있으며, 데이터 분석을 너머 데이터의 변환(또는 생성) 등의 목적으로도 활용되고 있다.Deep-learning technology is attracting attention by showing results that exceed the performance of existing technologies in analyzing various types of data such as images, voices, and texts. In addition, deep learning technology is being introduced and utilized in various fields due to the scalability and flexibility inherent in the technology itself, and is also being used for purposes such as data transformation (or creation) beyond data analysis.
다양한 분야 중에서도 의료 분야는 기존 진단 프로세스의 개선을 위해 딥러닝 기술을 가장 활발하게 도입하고 있는 분야이다. 예를 들어, 의료 분야에서는, 피진단자의 의료 이미지에서 병변을 검출하거나 질병을 진단하는 딥러닝 모델이 실제 진단 프로세스에 도입되어 활용되고 있다.Among various fields, the medical field is the field that is most actively introducing deep learning technology to improve existing diagnostic processes. For example, in the medical field, deep learning models that detect lesions or diagnose diseases in medical images of patients are being introduced and utilized in the actual diagnosis process.
최근에는, 도메인 변환(domain translation 또는 domain transform)을 수행하는 GAN(Generative Adversarial Networks) 모델을 이용하여 의료 이미지를 보다 유용한 형태로 변환하려는 시도가 이루어지고 있다. 그러나, 의료 분야에서는 다중 도메인에 대한 페어드(paired) 이미지셋을 확보하는 것이 매우 어렵기 때문에, 위와 같은 시도가 아직까지는 실효성 있는 결과를 보여주지는 못하고 있다.Recently, attempts have been made to convert medical images into a more useful form using a GAN (Generative Adversarial Networks) model that performs domain translation or domain transform. However, in the medical field, it is very difficult to secure paired image sets for multiple domains, so the above attempts have not yet shown effective results.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 기술적 과제는, 딥러닝 모델을 이용하여 소스 도메인(source domain)의 이미지를 타깃(target domain)의 이미지로 정확하게 변환할 수 있는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.The technical problem to be solved through some embodiments of the present disclosure is a method for accurately converting an image of a source domain into an image of a target domain using a deep learning model, and how to perform the method. providing a system.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 다른 기술적 과제는, 딥러닝 모델을 이용하여 저품질의 이미지(e.g. MR 이미지)를 고품질의 이미지로 정확하게 변환할 수 있는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for accurately converting a low-quality image (e.g. MR image) into a high-quality image using a deep learning model and a system for performing the method. It is done.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 또 다른 기술적 과제는, 딥러닝 모델을 이용하여 MR(Magnetic Resonance) 이미지를 CT(Computed Tomography) 이미지로 정확하게 변환할 수 있는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is a method for accurately converting an MR (Magnetic Resonance) image into a CT (Computed Tomography) image using a deep learning model, and a system for performing the method. is to provide.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 또 다른 기술적 과제는, 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델을 구축할 수 있는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for building a high-performance deep learning model that accurately performs domain conversion and a system for performing the method.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 또 다른 기술적 과제는, 다중 도메인에 대한 언페어드(unpaired) 이미지셋으로부터 페어드(paired) 이미지셋을 생성할 수 있는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for generating a paired image set from an unpaired image set for multiple domains and a system for performing the method. It is provided.
본 개시의 몇몇 실시예들을 통해 해결하고자 하는 또 다른 기술적 과제는, 딥러닝 모델을 통해 생성된 합성 이미지의 품질을 정확하게 평가할 수 있는 방법 및 그 방법을 수행하는 시스템을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a method for accurately evaluating the quality of a synthetic image generated through a deep learning model and a system for performing the method.
본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those skilled in the art from the description below.
상술한 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예에 따른 이미지 변환 방법은, 적어도 하나의 컴퓨팅 장치에 의해 수행되는 방법으로서, 제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 단계 - 상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고품질의 이미지임 - , 상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 단계 및 상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 품질 변환을 수행하는 딥러닝 모델을 구축하는 단계를 포함할 수 있다.In order to solve the above-described technical problem, an image conversion method according to some embodiments of the present disclosure is a method performed by at least one computing device, and includes an unpaired image conversion method including an image of a first domain and an image of a second domain. Obtaining an (unpaired) image set - the image of the second domain is a higher quality image than the image of the first domain -, generating a paired image set from the obtained unpaired image set, and It may include building a deep learning model that performs quality conversion on the input image using the generated paired image set.
일 실시예에서, 상기 언페어드 이미지셋은 MR(Magnetic Resonance) 이미지셋이고, 상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고자장(high-field)의 MR 이미지일 수 있다.In one embodiment, the unpaired image set is a magnetic resonance (MR) image set, and the image of the second domain may be an MR image with a higher field than the image of the first domain.
일 실시예에서, 상기 페어드 이미지셋을 생성하는 단계는, 상기 제1 도메인의 이미지와 상기 제2 도메인의 이미지를 정합함으로써, 상기 페어드 이미지셋을 생성하는 단계를 포함할 수 있다.In one embodiment, generating the paired image set may include generating the paired image set by matching the image of the first domain and the image of the second domain.
일 실시예에서, 상기 페어드 이미지셋을 생성하는 단계는, 도메인 변환(domain translation) 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 이용하여, 상기 제1 도메인의 이미지를 상기 제2 도메인의 합성 이미지(synthetic image)로 변환하는 단계 및 상기 제1 도메인의 이미지와 상기 제2 도메인의 합성 이미지를 페어(pair)로 구성하는 단계를 포함할 수 있다.In one embodiment, the step of generating the paired image set includes synthesizing the image of the first domain into the second domain using a GAN (Generative Adversarial Networks) model with domain translation capability. It may include converting the image into a synthetic image and configuring the image of the first domain and the composite image of the second domain into a pair.
일 실시예에서, 상기 페어드 이미지셋을 생성하는 단계는, 상기 제1 도메인의 이미지와 상기 제2 도메인의 이미지를 정합하여, 정합 이미지를 생성하는 단계, 상기 언페어드 이미지셋의 적어도 일부와 상기 생성된 정합 이미지를 학습하여, 도메인 변환 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 구축하는 단계 및 상기 구축된 GAN 모델을 이용하여 상기 페어드 이미지셋의 적어도 일부를 생성하는 단계를 포함할 수 있다.In one embodiment, the step of generating the paired image set includes matching an image of the first domain and an image of the second domain to generate a matched image, at least a portion of the unpaired image set and the It may include learning the generated matched image to build a GAN (Generative Adversarial Networks) model with domain transformation capability, and generating at least a portion of the paired image set using the built GAN model. there is.
일 실시예에서, 상기 생성된 정합 이미지는 상기 제2 도메인에 속한 이미지이고, 상기 GAN 모델은 상기 제1 도메인의 이미지와 상기 생성된 정합 이미지를 학습함으로써 구축된 것이며, 상기 페어드 이미지셋의 적어도 일부를 생성하는 단계는, 상기 구축된 GAN 모델을 통해 상기 제1 도메인의 이미지를 상기 제2 도메인의 합성 이미지(synthetic image)로 변환하는 단계 및 상기 제1 도메인의 이미지와 상기 제2 도메인의 합성 이미지를 페어(pair)로 구성하는 단계를 포함할 수 있다.In one embodiment, the generated registered image is an image belonging to the second domain, the GAN model is constructed by learning the image of the first domain and the generated registered image, and at least one of the paired image set The part generating step includes converting the image of the first domain into a synthetic image of the second domain through the constructed GAN model and synthesizing the image of the first domain and the second domain. It may include configuring images into pairs.
일 실시예에서, 상기 구축된 딥러닝 모델을 이용하여 제1 이미지를 상기 제1 이미지보다 고품질의 제2 이미지로 변환하는 단계를 더 포함할 수 있다.In one embodiment, the step of converting the first image into a second image of higher quality than the first image using the constructed deep learning model may be further included.
일 실시예에서, 지정된 평가 메트릭을 이용하여 상기 제2 이미지의 품질을 평가하는 단계를 더 포함하되, 상기 지정된 평가 메트릭은, 상기 제1 이미지와 상기 제2 이미지와의 상관계수, 상기 제1 이미지와 상기 제2 이미지의 신호대잡음비(Signal-to-Noise Ratio) 차이 및 상기 제1 이미지와 상기 제2 이미지의 픽셀 강도(pixel intensity) 차이를 포함할 수 있다.In one embodiment, further comprising evaluating the quality of the second image using a designated evaluation metric, wherein the designated evaluation metric includes a correlation coefficient between the first image and the second image, and the first image. It may include a difference in signal-to-noise ratio of the second image and a difference in pixel intensity between the first image and the second image.
일 실시예에서, 상기 제1 이미지는 피진단자의 MR(Magnetic Resonance) 이미지이고, MR 이미지를 CT(Computer Tomography) 이미지로 변환하도록 학습된 다른 딥러닝 모델을 이용하여, 상기 제2 이미지를 CT 이미지로 변환하는 단계를 더 포함할 수 있다.In one embodiment, the first image is a MR (Magnetic Resonance) image of the patient being diagnosed, and the second image is converted to a CT image using another deep learning model learned to convert the MR image into a CT (Computer Tomography) image. A conversion step may be further included.
일 실시예에서, 상기 딥러닝 모델은 인코더 및 디코더를 포함하고, 상기 인코더는 입력된 이미지로부터 서로 다른 추상화 레벨의 특징 데이터를 추출하는 복수개의 인코딩 블록들을 포함하며, 상기 디코더는 상기 복수개의 인코딩 블록들에 대응되는 복수개의 디코딩 블록들을 포함하되, 상기 복수개의 인코딩 블록들과 상기 복수개의 디코딩 블록들 간에는 상기 추출된 특징 데이터를 전달하는 스킵-커넥션(skip-connection)이 형성되어 있을 수 있다.In one embodiment, the deep learning model includes an encoder and a decoder, the encoder includes a plurality of encoding blocks for extracting feature data of different abstraction levels from an input image, and the decoder includes the plurality of encoding blocks. and a plurality of decoding blocks corresponding to the plurality of encoding blocks, and a skip-connection that transfers the extracted feature data may be formed between the plurality of encoding blocks and the plurality of decoding blocks.
상술한 기술적 과제를 해결하기 위한, 본 개시의 다른 몇몇 실시예에 따른 이미지 변환 방법은, 적어도 하나의 컴퓨팅 장치에 의해 수행되는 방법으로서, 피진단자에 대한 제1 MR(Magnetic Resonance) 이미지를 획득하는 단계, 제1 딥러닝 모델을 통해 상기 제1 MR 이미지를 제2 MR 이미지로 변환하는 단계 - 상기 제2 MR 이미지는 상기 제1 MR 이미지보다 고품질의 이미지임 - 및 제2 딥러닝 모델을 통해 상기 제2 MR 이미지를 CT(Computed Tomography) 이미지로 변환하는 단계를 포함할 수 있다.In order to solve the above-mentioned technical problem, the image conversion method according to some other embodiments of the present disclosure is a method performed by at least one computing device, and is a method of acquiring a first MR (Magnetic Resonance) image for the subject being diagnosed. Step, converting the first MR image into a second MR image through a first deep learning model - the second MR image is a higher quality image than the first MR image - and converting the first MR image into a second MR image through a second deep learning model. It may include converting the second MR image into a CT (Computed Tomography) image.
상술한 기술적 과제를 해결하기 위한, 본 개시의 또 다른 몇몇 실시예에 따른 이미지 변환 방법은, 적어도 하나의 컴퓨팅 장치에 의해 수행되는 방법으로서, 제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 단계, 상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 단계 및 상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 도메인 변환을 수행하는 딥러닝 모델을 구축하는 단계를 포함할 수 있다.In order to solve the above-described technical problem, an image conversion method according to another embodiment of the present disclosure is a method performed by at least one computing device, including an image of a first domain and an image of a second domain. Obtaining an unpaired image set, generating a paired image set from the obtained unpaired image set, and performing domain transformation on the input image using the generated paired image set. It may include the step of building a deep learning model.
상술한 기술적 과제를 해결하기 위한 본 개시의 몇몇 실시예들에 따른 이미지 변환 시스템은, 상술한 기술적 과제를 해결하기 위한 본 개시의 다른 몇몇 실시예들에 따른 이미지 변환 시스템은. 하나 이상의 프로세서 및 하나 이상의 인스트럭션을 저장하는 메모리를 포함하고, 상기 하나 이상의 프로세서는, 상기 저장된 하나 이상의 인스트럭션을 실행함으로써, 제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 동작 - 상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고품질의 이미지임 - , 상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 동작 및 상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 품질 변환을 수행하는 딥러닝 모델을 구축하는 동작을 수행할 수 있다.An image conversion system according to some embodiments of the present disclosure for solving the above-described technical problems, and an image conversion system according to some other embodiments of the present disclosure for solving the above-mentioned technical problems. Comprising one or more processors and a memory that stores one or more instructions, wherein the one or more processors execute the one or more stored instructions, thereby generating an unpaired image including an image of a first domain and an image of a second domain. An operation of acquiring a set - the image of the second domain is a higher quality image than the image of the first domain -, an operation of generating a paired image set from the obtained unpaired image set, and the generated pair Using the image set, you can build a deep learning model that performs quality conversion on the input image.
상술한 기술적 과제를 해결하기 위한 본 개시의 몇몇 실시예들에 따른 컴퓨터 프로그램은, 제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 단계 - 상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고품질의 이미지임 - , 상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 단계 및 상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 품질 변환을 수행하는 딥러닝 모델을 구축하는 단계를 실행시키기 위하여 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.A computer program according to some embodiments of the present disclosure for solving the above-described technical problem includes the steps of acquiring an unpaired image set including an image of a first domain and an image of a second domain - the second domain The image of the domain is a higher quality image than the image of the first domain. - Generating a paired image set from the obtained unpaired image set and using the generated paired image set to input the image. It can be stored in a computer-readable recording medium to execute the step of building a deep learning model that performs quality conversion.
본 개시의 몇몇 실시예들에 따르면, 다중 도메인에 대한 언페어드(unpaired) 이미지셋으로부터 페어드(paired) 이미지셋이 생성되고, 생성된 페어드 이미지셋을 이용하여 도메인 변환을 수행하는 딥러닝 모델이 구축될 수 있다. 이에 따라, 도메인 변환을 정확하게 수행하는 딥러닝 모델이 구축될 수 있으며, 구축된 딥러닝 모델을 통해 제1 도메인(즉, 소스 도메인)의 이미지가 제2 도메인(즉, 타깃 도메인)의 이미지로 정확하게 변환될 수 있다. 가령, 저품질의 이미지(e.g. MR 이미지)가 고품질의 이미지로 정확하게 변환될 수 있고, 제1 유형의 이미지(e.g. MR 이미지)가 제2 유형의 이미지(e.g. CT 이미지)로 정확하게 변환될 수 있다.According to some embodiments of the present disclosure, a paired image set is generated from an unpaired image set for multiple domains, and a deep learning model that performs domain transformation using the generated paired image set. This can be built. Accordingly, a deep learning model that accurately performs domain conversion can be constructed, and the image of the first domain (i.e., source domain) can be accurately converted to an image of the second domain (i.e., target domain) through the constructed deep learning model. can be converted. For example, a low-quality image (e.g. MR image) can be accurately converted into a high-quality image, and a first type of image (e.g. MR image) can be accurately converted into a second type of image (e.g. CT image).
또한, 딥러닝 모델을 통해 피진단자의 MR(Magnetic Resonance) 이미지가 더 고품질의 MR 이미지로 변환될 수 있다. 이러한 경우, 낙후된 MRI 장비(e.g. 저자장 MRI 촬영 장비)만을 구비한 병원(또는 환경)에서도 고품질의 MR 이미지가 용이하게 확보될 수 있어, 진단 프로세스와 의료 환경이 전반적으로 크게 개선될 수 있다.In addition, the MR (Magnetic Resonance) image of the patient being diagnosed can be converted into a higher quality MR image through a deep learning model. In this case, high-quality MR images can be easily secured even in hospitals (or environments) equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), and the diagnostic process and overall medical environment can be greatly improved.
또한, 딥러닝 모델을 통해 피진단자의 MR 이미지가 CT(Computer Tomography) 이미지로 변환될 수 있다. 이러한 경우, 피진단자는 CT 촬영을 할 필요가 없어지기 때문에, 방사선 피폭의 위험성으로부터 자유로워질 수 있다. 뿐만 아니라, 피진단자가 다양한 질병에 대한 종합적인 진단을 받기 위해 여러 번의 촬영 검사를 받을 필요가 없어지기 때문에, 진단 프로세스가 전반적으로 간소화될 수 있다. 나아가, 촬영 검사에 소요되는 시간 비용과 금전 비용도 절감될 수 있다.Additionally, the MR image of the patient being diagnosed can be converted into a CT (Computer Tomography) image through a deep learning model. In this case, the patient being diagnosed can be free from the risk of radiation exposure because there is no need for a CT scan. In addition, the overall diagnostic process can be simplified because the patient does not need to undergo multiple imaging tests to receive a comprehensive diagnosis of various diseases. Furthermore, the time and financial costs required for imaging tests can be reduced.
또한, 딥러닝 모델을 통해 피진단자의 MR 이미지가 더 고품질의 MR 이미지로 변환되고, 다른 딥러닝 모델을 통해 변환된 MR 이미지가 CT 이미지로 변환될 수 있다. 이러한 경우, 상당히 고품질의 CT 이미지가 생성될 수 있기 때문에, 피진단자는 방사선 피폭의 위험성으로부터 완전히 해방될 수 있다. 뿐만 아니라, 낙후된 MRI 장비(e.g. 저자장 MRI 촬영 장비)만을 구비한 병원에서도 고품질의 MR 이미지와 CT 이미지가 용이하게 확보될 수 있어, 진단 프로세스와 의료 환경이 전반적으로 크게 개선될 수 있다.In addition, the MR image of the patient being diagnosed can be converted into a higher quality MR image through a deep learning model, and the MR image converted through another deep learning model can be converted into a CT image. In this case, because CT images of fairly high quality can be generated, the patient being diagnosed can be completely free from the risk of radiation exposure. In addition, high-quality MR and CT images can be easily secured even in hospitals equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), which can greatly improve the diagnostic process and overall medical environment.
또한, 상관계수, 신호대잡음비(Signal-to-Noise Ratio) 차이 및/또는 픽셀 강도(또는 신호 강도) 차이에 기초하여 생성된 합성 이미지(즉, 딥러닝 모델을 통해 변환된 이미지)의 품질이 정량적으로 정확하게 평가될 수 있다.Additionally, the quality of synthetic images (i.e., images converted through deep learning models) generated based on correlation coefficients, signal-to-noise ratio differences, and/or pixel intensity (or signal intensity) differences can be quantitatively determined. can be accurately evaluated.
또한, 이미지 정합 기법을 이용하여 언페어드 이미지셋으로부터 페어드 이미지셋이 생성될 수 있다. 이에 따라, 다중 도메인에 대한 페어드 이미지셋이 용이하게 확보될 수 있고, 페어드 이미지셋 확보에 소요되는 시간 비용 및 인적 비용이 크게 절감될 수 있다. 뿐만 아니라, 생성된 페어드 이미지셋을 이용함으로써, 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델이 용이하게 구축될 수 있다.Additionally, a paired image set can be created from an unpaired image set using an image matching technique. Accordingly, paired image sets for multiple domains can be easily secured, and the time and human costs required to secure a paired image set can be greatly reduced. In addition, by using the generated paired image set, a high-performance deep learning model that accurately performs domain transformation can be easily built.
또한, 도메인 변환 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 이용하여 언페어드 이미지셋으로부터 페어드 이미지셋이 생성될 수 있다. 이에 따라, 다중 도메인에 대한 페어드 이미지셋이 용이하게 확보될 수 있고, 페어드 이미지셋 확보에 소요되는 시간 비용 및 인적 비용이 크게 절감될 수 있다. 뿐만 아니라, 생성된 페어드 이미지셋을 이용함으로써, 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델이 용이하게 구축될 수 있다.Additionally, a paired image set can be created from an unpaired image set using a GAN (Generative Adversarial Networks) model with domain transformation capability. Accordingly, paired image sets for multiple domains can be easily secured, and the time and human costs required to secure a paired image set can be greatly reduced. In addition, by using the generated paired image set, a high-performance deep learning model that accurately performs domain transformation can be easily built.
또한, 이미지 정합 기법과 도메인 변환 능력을 구비한 GAN 모델을 이용하여 언페어드 이미지셋으로부터 양질의 페어드 이미지셋이 생성될 수 있다. 이에 따라, 적은 비용으로 다중 도메인에 대한 양질의 페어드 이미지셋이 확보될 수 있고, 결과적으로 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델이 더욱 용이하게 구축될 수 있다.Additionally, a high-quality paired image set can be generated from an unpaired image set using a GAN model with image matching techniques and domain transformation capabilities. Accordingly, high-quality paired image sets for multiple domains can be secured at a low cost, and as a result, high-performance deep learning models that accurately perform domain transformation can be more easily built.
본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.
도 1 내지 도 3은 본 개시의 몇몇 실시예들에 따른 이미지 변환 시스템을 설명하기 위한 예시적인 도면이다.1 to 3 are exemplary diagrams for explaining an image conversion system according to some embodiments of the present disclosure.
도 4는 본 개시의 몇몇 실시예들에 따른 이미지 변환 시스템이 도입됨에 따라 변경된 예시적인 진단 프로세스를 도시한다.4 illustrates an example diagnostic process that has changed with the introduction of an image conversion system according to some embodiments of the present disclosure.
도 5는 본 개시의 몇몇 실시예들에 따른 이미지 변환 시스템의 페어드(paired) 이미지셋 생성 방법을 개략적으로 설명하기 위한 예시적인 도면이다.FIG. 5 is an exemplary diagram schematically illustrating a method of generating a paired image set of an image conversion system according to some embodiments of the present disclosure.
도 6은 본 개시의 몇몇 실시예들에 따른 이미지 변환 방법을 나타내는 예시적인 흐름도이다.6 is an example flowchart illustrating an image conversion method according to some embodiments of the present disclosure.
도 7은 본 개시의 일 실시예에 따른 이미지 품질 변환 능력을 구비한 딥러닝 모델의 구조 및 동작을 설명하기 위한 예시적인 도면이다.FIG. 7 is an exemplary diagram illustrating the structure and operation of a deep learning model with image quality conversion capability according to an embodiment of the present disclosure.
도 8은 본 개시의 일 실시예에 따른 이미지 유형 변환 능력을 구비한 딥러닝 모델의 구조 및 동작을 설명하기 위한 예시적인 도면이다.FIG. 8 is an exemplary diagram for explaining the structure and operation of a deep learning model with image type conversion capability according to an embodiment of the present disclosure.
도 9는 본 개시의 일 실시예에 따른 페어드 이미지셋 생성 방법을 나타내는 예시적인 흐름도이다.Figure 9 is an exemplary flowchart showing a method of generating a paired image set according to an embodiment of the present disclosure.
도 10 및 도 11은 본 개시의 일 실시예에 따른 페어드 이미지셋 생성 방법을 부연 설명하기 위한 예시적인 도면이다.10 and 11 are exemplary diagrams to further explain a method of generating a paired image set according to an embodiment of the present disclosure.
도 12는 본 개시의 다른 실시예에 따른 페어드 이미지셋 생성 방법을 나타내는 예시적인 흐름도이다.FIG. 12 is an exemplary flowchart showing a method of generating a paired image set according to another embodiment of the present disclosure.
도 13 및 도 14는 본 개시의 몇몇 실시예들에 따른 도메인 변환 능력을 구비한 GAN(Generative Adversarial Networks) 모델의 구조 및 학습 방법을 설명하기 위한 예시적인 도면이다.13 and 14 are exemplary diagrams for explaining the structure and learning method of a GAN (Generative Adversarial Networks) model with domain transformation capability according to some embodiments of the present disclosure.
도 15 및 도 16은 본 개시의 다른 실시예에 따른 페어드 이미지셋 생성 방법을 부연 설명하기 위한 예시적인 도면이다.15 and 16 are exemplary diagrams to further explain a method of generating a paired image set according to another embodiment of the present disclosure.
도 17은 본 개시의 또 다른 실시예에 따른 페어드 이미지셋 생성 방법을 나타내는 예시적인 흐름도이다.Figure 17 is an example flowchart showing a method of generating a paired image set according to another embodiment of the present disclosure.
도 18 및 도 19는 본 개시의 또 다른 실시예에 따른 페어드 이미지셋 생성 방법을 부연 설명하기 위한 예시적인 도면이다.18 and 19 are exemplary diagrams to further explain a method of generating a paired image set according to another embodiment of the present disclosure.
도 20은 본 개시의 몇몇 실시예들에 따른 이미지 변환 시스템을 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.20 illustrates an example computing device that can implement an image conversion system according to some embodiments of the present disclosure.
이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the attached drawings. The advantages and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the technical idea of the present disclosure is not limited to the following embodiments and may be implemented in various different forms. The following examples are merely intended to complete the technical idea of the present disclosure and to be used in the technical field to which the present disclosure belongs. It is provided to fully inform those skilled in the art of the scope of the present disclosure, and the technical idea of the present disclosure is only defined by the scope of the claims.
각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.When adding reference numerals to components in each drawing, it should be noted that identical components are given the same reference numerals as much as possible even if they are shown in different drawings. Additionally, in describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present disclosure, the detailed description will be omitted.
다른 정의가 없다면, 본 개시에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 개시에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 개시에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in this disclosure may be used with meanings that can be commonly understood by those skilled in the art to which this disclosure pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined. The terminology used in this disclosure is for describing embodiments and is not intended to limit the disclosure. In this disclosure, the singular includes the plural, unless specifically stated otherwise in the context.
또한, 본 개시의 구성요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성요소를 다른 구성요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 또 다른 구성요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.Additionally, in describing the components of the present disclosure, terms such as first, second, A, B, (a), and (b) may be used. These terms are only used to distinguish the component from other components, and the nature, order, or order of the component is not limited by the term. When a component is described as being “connected,” “coupled,” or “connected” to another component, that component may be directly connected or connected to that other component, but there is another component between each component. It will be understood that elements may be “connected,” “combined,” or “connected.”
본 개시에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used in this disclosure, “comprises” and/or “comprising” refers to a referenced component, step, operation and/or element that includes one or more other components, steps, operations and/or elements. Does not exclude presence or addition.
이하, 첨부된 도면에 따라본 개시의 다양한 실시예들에 대하여 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail according to the attached drawings.
도 1은 본 개시의 몇몇 실시예들에 따른 이미지 변환 시스템(10)을 설명하기 위한 예시적인 도면이다.FIG. 1 is an exemplary diagram for explaining an image conversion system 10 according to some embodiments of the present disclosure.
도 1에 도시된 바와 같이, 이미지 변환 시스템(10)은 딥러닝 모델(13)을 이용하여 제1 도메인(즉, 소스 도메인)의 이미지(11)를 제2 도메인(즉, 타깃 도메인)의 이미지(12)로 변환할 수 있는 시스템일 수 있다. 가령, 이미지 변환 시스템(10)은 딥러닝 모델(13)을 이용하여 이미지(11)의 품질을 변환(향상)하거나, 이미지(11)의 유형을 변환할 수 있다. 이하에서는, 설명의 편의상 이미지 변환 시스템(10)을 '변환 시스템(10)'으로 약칭하도록 한다.As shown in Figure 1, the image conversion system 10 uses a deep learning model 13 to convert the image 11 of the first domain (i.e., source domain) into an image of the second domain (i.e., target domain). It may be a system that can be converted to (12). For example, the image conversion system 10 may convert (improve) the quality of the image 11 or convert the type of the image 11 using the deep learning model 13. Hereinafter, for convenience of explanation, the image conversion system 10 will be abbreviated as 'conversion system 10'.
두 도메인의 이미지(11, 12)는 예를 들어 의료 분야의 이미지일 수 있으나, 본 개시의 범위가 이에 한정되는 것은 아니다. 가령, 두 도메인의 이미지(11, 12)는 비-의료 분야의 이미지일 수도 있다. 또한, 제1 도메인의 이미지(11)와 제2 도메인의 이미지(12)가 서로 다른 분야의 이미지일 수도 있다.The images 11 and 12 of the two domains may be, for example, images from the medical field, but the scope of the present disclosure is not limited thereto. For example, the images 11 and 12 of the two domains may be images from a non-medical field. Additionally, the first domain image 11 and the second domain image 12 may be images from different fields.
의료 분야의 이미지는 예를 들어 MR(Magnetic Resonance) 이미지, CT(Computed Tomography) 이미지 등과 같이 의료 분야에서 취급되는 다양한 유형의 이미지를 모두 포괄할 수 있다. 또한, MR 이미지와 CT 이미지는 예를 들어 2차원의 슬라이스(단면) 이미지, 3차원 이미지 등이 될 수 있을 것이나, 본 개시의 범위가 이에 한정되는 것은 아니다.Images in the medical field can encompass all various types of images handled in the medical field, such as MR (Magnetic Resonance) images, CT (Computed Tomography) images, etc. Additionally, MR images and CT images may be, for example, two-dimensional slice (cross-section) images, three-dimensional images, etc., but the scope of the present disclosure is not limited thereto.
보다 구체적으로, 변환 시스템(10)은 도메인 변환(domain translation 또는 domain transform) 능력을 구비한 적어도 하나의 딥러닝 모델(13)을 구축하고, 구축된 딥러닝 모델(13)을 이용하여 다양한 방식으로 도메인 변환을 수행할 수 있다.More specifically, the transformation system 10 builds at least one deep learning model 13 with domain translation (domain translation or domain transform) capability, and uses the built deep learning model 13 to transform the system in various ways. Domain conversion can be performed.
예를 들어, 도 2에 도시된 바와 같이, 변환 시스템(10)은 딥러닝 모델(23)을 통해 저품질의 이미지(21)를 고품질의 이미지(22)로 변환할 수 있다(즉, 본 예시에서, 제1 도메인은 저품질의 이미지로 구성되고, 제2 도메인은 고품질의 이미지로 구성됨). 본 예시에서, 딥러닝 모델(23)은 저품질의 트레이닝 이미지와 고품질의 트레이닝 이미지로 구성된 이미지셋(즉, 트레이닝 이미지셋)을 학습함으로써 품질 변환(향상) 능력을 구비하게 된 모델일 수 있다. 여기서, 고품질의 트레이닝 이미지는 저품질의 트레이닝 이미지보다 상대적으로 품질이 우수한 이미지를 의미하며, 예를 들어 픽셀 강도(pixel intensity), 해상도, 신호대잡음비(Signal-to-Noise Ratio), 선명도(e.g. 픽셀값의 대비) 등이 우수한 이미지가 될 수 있을 것이나, 본 개시의 범위가 이에 한정되는 것은 아니다.For example, as shown in FIG. 2, the conversion system 10 can convert a low-quality image 21 into a high-quality image 22 through the deep learning model 23 (i.e., in this example , the first domain consists of low-quality images, and the second domain consists of high-quality images). In this example, the deep learning model 23 may be a model equipped with quality conversion (improvement) capabilities by learning an image set (i.e., training image set) composed of low-quality training images and high-quality training images. Here, a high-quality training image refers to an image with relatively higher quality than a low-quality training image, such as pixel intensity, resolution, signal-to-noise ratio, and sharpness (e.g. pixel value). contrast) may be an excellent image, but the scope of the present disclosure is not limited thereto.
보다 구체적인 예로서, 변환 시스템(10)은 딥러닝 모델(e.g. 23)을 통해 저품질의 MR 이미지(e.g. 21)를 고품질의 MR 이미지(e.g. 22)로 변환할 수 있다. 이러한 딥러닝 모델(e.g. 23)은 저품질의 트레이닝 MR 이미지와 고품질의 트레이닝 MR 이미지로 구성된 이미지셋을 학습함으로써 구축될 수 있다. 여기서, 고품질의 트레이닝 MR 이미지는 예를 들어 신호대잡음비 및/또는 신호 강도(signal intensity)가 상대적으로 우수한 MR 이미지, 고자장(high-field)의 MR 이미지 등이 될 수 있다. 그러나, 본 개시의 범위가 이에 한정되는 것은 아니다. 가령, 저자장(low-field)의 트레이닝 MR 이미지와 고자장의 트레이닝 MR 이미지로 구성된 이미지셋을 학습한 딥러닝 모델(e.g. 23)은 입력된 저자장 MR 이미지(e.g. 21)를 고자장 MR 이미지(정확하게는, 고자장 MR 이미지와 유사한 특성/품질을 갖는 이미지)로 변환할 수 있게 된다. 본 예시에 따르면, 낙후된 MRI 장비(e.g. 저자장 MRI 촬영 장비)만을 구비한 병원(또는 환경)에서도 고품질의 MR 이미지가 용이하게 확보될 수 있어, 진단 프로세스와 의료 환경이 전반적으로 크게 개선될 수 있다. 경우에 따라, 변환 시스템(10)은 딥러닝 모델(e.g. 23)을 통해 저품질의 CT 이미지(e.g. 21)를 고품질의 CT 이미지(e.g. 22)로 변환할 수도 있다.As a more specific example, the conversion system 10 can convert a low-quality MR image (e.g. 21) into a high-quality MR image (e.g. 22) through a deep learning model (e.g. 23). This deep learning model (e.g. 23) can be built by learning an image set composed of low-quality training MR images and high-quality training MR images. Here, high-quality training MR images may be, for example, MR images with relatively excellent signal-to-noise ratio and/or signal intensity, high-field MR images, etc. However, the scope of the present disclosure is not limited thereto. For example, a deep learning model (e.g. 23) that learned an image set consisting of a low-field training MR image and a high-field training MR image converts the input low-field MR image (e.g. 21) into a high-field MR image (e.g. To be precise, it can be converted into an image with characteristics/quality similar to that of a high-magnetic field MR image. According to this example, high-quality MR images can be easily secured even in hospitals (or environments) equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), greatly improving the diagnostic process and overall medical environment. there is. In some cases, the conversion system 10 may convert a low-quality CT image (e.g. 21) into a high-quality CT image (e.g. 22) through a deep learning model (e.g. 23).
다른 예로서, 도 3에 도시된 바와 같이, 변환 시스템(10)은 딥러닝 모델(33)을 통해 제1 유형의 이미지(31)를 제2 유형의 이미지(32)로 변환할 수도 있다(즉, 본 예시에서, 제1 도메인은 제1 유형의 이미지로 구성되고, 제2 도메인은 제2 유형의 이미지로 구성됨). 이러한 딥러닝 모델(33)은 제1 유형의 트레이닝 이미지와 제2 유형의 트레이닝 이미지로 구성된 이미지셋을 학습함으로써 구축될 수 있다.As another example, as shown in FIG. 3, the conversion system 10 may convert the first type of image 31 into the second type of image 32 through the deep learning model 33 (i.e. , in this example, the first domain consists of images of the first type, and the second domain consists of images of the second type). This deep learning model 33 can be constructed by learning an image set consisting of a first type of training image and a second type of training image.
보다 구체적인 예로서, 도 4에 도시된 바와 같이, 변환 시스템(10)은 딥러닝 모델(43)을 통해 MR 이미지(41)를 CT 이미지(42)로 변환할 수도 있다. 이러한 딥러닝 모델(43)은 트레이닝 MR 이미지와 트레이닝 CT 이미지로 구성된 이미지셋을 학습함으로써 구축될 수 있다. 본 예시에 따르면, 피진단자는 CT 촬영을 할 필요가 없어지기 때문에, 방사선 피폭의 위험성으로부터 자유로워질 수 있다. 뿐만 아니라, 피진단자가 다양한 질병에 대한 종합적인 진단을 받기 위해 여러 번의 촬영 검사를 받을 필요가 없어지기 때문에, 진단 프로세스가 전반적으로 간소화될 수 있다. 나아가, 촬영 검사에 소요되는 시간 비용과 금전 비용도 절감될 수 있다. 경우에 따라, 변환 시스템(10)은 딥러닝 모델(e.g. 33)을 통해 CT 이미지(e.g. 31)를 MR 이미지(e.g. 32)로 변환할 수도 있다.As a more specific example, as shown in FIG. 4, the conversion system 10 may convert the MR image 41 into a CT image 42 through the deep learning model 43. This deep learning model 43 can be built by learning an image set composed of training MR images and training CT images. According to this example, the patient being diagnosed can be free from the risk of radiation exposure because there is no need for a CT scan. In addition, the overall diagnostic process can be simplified because the patient does not need to undergo multiple imaging tests to receive a comprehensive diagnosis of various diseases. Furthermore, the time and financial costs required for imaging tests can be reduced. In some cases, the conversion system 10 may convert a CT image (e.g. 31) into an MR image (e.g. 32) through a deep learning model (e.g. 33).
또 다른 예로서, 변환 시스템(10)은 딥러닝 모델을 통해 이상 검출 난이도가 높은 이미지를 이상 검출 난이도가 낮은 이미지로 변환할 수도 있다. 이러한 딥러닝 모델은 이상 검출 난이도가 높은 트레이닝 이미지와 이상 검출 난이도가 낮은 트레이닝 이미지로 구성된 이미지셋을 학습함으로써 구축될 수 있다. 또한, 이상 검출 난이도는 예를 들어 이상 검출을 수행하는 딥러닝 모델의 컨피던스 스코어(confidence score)에 기초하여 결정되는 것일 수 있다.As another example, the conversion system 10 may convert an image with a high difficulty in abnormality detection into an image with a low difficulty in abnormality detection through a deep learning model. This deep learning model can be built by learning an image set composed of training images with high difficulty in detecting anomalies and training images with low difficulty in detecting anomalies. Additionally, the difficulty of anomaly detection may be determined based on, for example, the confidence score of a deep learning model that performs anomaly detection.
보다 구체적인 예로서, 변환 시스템(10)은 딥러닝 모델을 통해 병변 검출 난이도가 높은 의료 이미지(e.g. 병변 검출을 수행하는 딥러닝 모델이 애매한 컨피던스 스코어를 출력하는 이미지)를 병변 검출 난이도가 낮은 의료 이미지로 변환할 수 있다. 이러한 딥러닝 모델은 병변 검출 난이도가 높은 트레이닝 이미지와 병변 검출 난이도가 낮은 트레이닝 이미지로 구성된 이미지셋을 학습함으로써 구축될 수 있다. 본 예시에 따르면, 의료 이미지의 병변 검출 난이도를 낮춤으로써, 병변 검출을 수행하는 딥러닝 모델의 정확도가 향상될 수 있으며, 오검출로 인해 야기되는 피진단자의 심리적 비용, 시간 비용 및 금전 비용도 절감될 수 있다.As a more specific example, the conversion system 10 converts a medical image with a high difficulty in lesion detection (e.g. an image for which a deep learning model performing lesion detection outputs an ambiguous confidence score) into a medical image with a low difficulty in lesion detection through a deep learning model. It can be converted to . This deep learning model can be built by learning an image set consisting of training images with high lesion detection difficulty and training images with low lesion detection difficulty. According to this example, by lowering the difficulty of detecting lesions in medical images, the accuracy of deep learning models that perform lesion detection can be improved, and the psychological costs, time costs, and financial costs of the diagnosed person caused by false detections can also be reduced. It can be.
또 다른 예에서는, 변환 시스템(10)이 상술한 다양한 예시들의 조합에 기초하여 이미지 변환을 수행할 수 있다. 가령, 변환 시스템(10)은 제1 딥러닝 모델(e.g. 23)을 이용하여 제1 이미지를 보다 고품질의 제2 이미지로 변환하고, 제2 딥러닝 모델(e.g. 33)을 이용하여 제2 이미지를 다른 유형의 이미지로 변환할 수 있다. 보다 구체적인 예를 들면, 변환 시스템(10)은 제1 딥러닝 모델(e.g. 23)을 통해 제1 MR 이미지를 더 고품질의 제2 MR 이미지로 변환하고, 제2 딥러닝 모델(e.g. 33)을 통해 제2 MR 이미지를 CT 이미지로 변환할 수 있다. 이러한 경우, 상당히 고품질의 CT 이미지가 생성될 수 있기 때문에, 피진단자는 방사선 피폭의 위험성으로부터 완전히 해방될 수 있다. 뿐만 아니라, 낙후된 MRI 장비(e.g. 저자장 MRI 촬영 장비)만을 구비한 병원에서도 고품질의 MR 이미지와 CT 이미지가 용이하게 확보될 수 있어, 진단 프로세스와 의료 환경이 전반적으로 크게 개선될 수 있다.In another example, conversion system 10 may perform image conversion based on a combination of the various examples described above. For example, the conversion system 10 converts the first image into a higher-quality second image using a first deep learning model (e.g. 23), and converts the second image to a higher quality second image using a second deep learning model (e.g. 33). It can be converted to other types of images. For a more specific example, the conversion system 10 converts the first MR image into a higher quality second MR image through a first deep learning model (e.g. 23), and converts the first MR image into a higher quality second MR image through a second deep learning model (e.g. 33). The second MR image can be converted to a CT image. In this case, because CT images of fairly high quality can be generated, the patient being diagnosed can be completely free from the risk of radiation exposure. In addition, high-quality MR and CT images can be easily secured even in hospitals equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), which can greatly improve the diagnostic process and overall medical environment.
다시 도 1을 참조하여 설명한다.Description will be made again with reference to FIG. 1 .
상술한 바와 같이, 변환 시스템(10)은 도메인 변환 능력을 구비한 딥러닝 모델(13)을 이용하여 이미지 변환을 수행하므로, 고성능의 딥러닝 모델(13)을 구축하는 것이 중요할 수 있다. 그리고, 고성능의 딥러닝 모델(13)을 구축하기 위해서는 통상적으로 다중 도메인(e.g. 제1 도메인과 제2 도메인)에 대한 페어드(paired) 이미지셋이 요구된다.As described above, the conversion system 10 performs image conversion using a deep learning model 13 with domain conversion capability, so it may be important to build a high-performance deep learning model 13. In addition, in order to build a high-performance deep learning model 13, paired image sets for multiple domains (e.g. first domain and second domain) are typically required.
그런데, 대다수의 분야에서는 다중 도메인에 대한 페어드 이미지셋을 확보하는 것이 매우 어렵다. 예를 들어, 의료 분야에서 저품질의 MR 이미지를 고품질의 MR 이미지로 변환하는 딥러닝 모델을 구축한다고 가정하자. 이러한 경우, 서로 다른 품질의 MR 이미지(e.g. 저자장 MR 이미지와 고자장 MR 이미지)에 대한 페어드 이미지셋을 확보하는 것은 거의 불가능하거나, 상당한 시간과 비용이 소모될 수 있다. 한 명의 피진단자가 같은 병원에서 서로 다른 MRI 장비를 이용하여 촬영을 하는 경우는 매우 드물기 때문이다.However, in most fields, it is very difficult to secure paired image sets for multiple domains. For example, let's assume that we are building a deep learning model that converts low-quality MR images into high-quality MR images in the medical field. In this case, securing a paired image set for MR images of different quality (e.g. low-field MR images and high-field MR images) may be nearly impossible or consume significant time and cost. This is because it is very rare for a single patient to undergo imaging using different MRI equipment at the same hospital.
이러한 문제를 해결하기 위한 본 개시의 몇몇 실시예들에 따르면, 변환 시스템(10)이 다중 도메인에 대한 언페어드(unpaired) 이미지셋으로부터 페어드 이미지셋을 생성하고, 생성된 페어드 이미지셋을 이용하여 고성능의 딥러닝 모델(13)을 구축할 수 있다. 가령, 도 5에 도시된 바와 같이, 변환 시스템(10)은 이미지 정합 기법 및/또는 도메인 변환 능력을 구비한 GAN(Generative Adversarial Networks) 모델(53)을 이용하여 언페어드 이미지셋(51)을 페어드 이미지셋(52)으로 변환할 수 있다. 그렇게 함으로써, 상대적으로 적은 비용으로 고성능의 딥러닝 모델(13)이 구축될 수 있는데, 이와 관련하여서는, 추후 도 9 내지 도 19를 참조하여 상세하게 설명하도록 한다.According to some embodiments of the present disclosure to solve this problem, the conversion system 10 generates a paired image set from an unpaired image set for multiple domains and uses the generated paired image set. Thus, a high-performance deep learning model (13) can be built. For example, as shown in FIG. 5, the transformation system 10 pairs the unpaired image set 51 using a GAN (Generative Adversarial Networks) model 53 with an image matching technique and/or domain transformation capability. It can be converted to image set (52). By doing so, a high-performance deep learning model 13 can be built at a relatively low cost, which will be described in detail later with reference to FIGS. 9 to 19.
변환 시스템(10)의 세부 동작들에 관하여서는 추후 도 6 이하의 도면을 참조하여 보다 상세하게 설명하도록 한다.Detailed operations of the conversion system 10 will be described in more detail later with reference to the drawings of FIG. 6 and below.
한편, 도 1은 변환 시스템(10)이 마치 하나의 도메인(즉, 제1 도메인)으로부터 다른 하나의 도메인(즉, 제2 도메인)으로 단방향 변환을 수행하는 것처럼 도시하고 있다. 그러나, 변환 시스템(10)은 다수의 도메인 간에 양방향 변환을 수행하도록 동작할 수도 있다.Meanwhile, FIG. 1 shows the transformation system 10 as if performing a one-way transformation from one domain (ie, the first domain) to another domain (ie, the second domain). However, transformation system 10 may also operate to perform bidirectional transformation between multiple domains.
변환 시스템(10)은 적어도 하나의 컴퓨팅 장치로 구현될 수 있다. 예를 들어, 변환 시스템(10)의 모든 기능이 하나의 컴퓨팅 장치에서 구현될 수도 있고, 변환 시스템(10)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 또는, 변환 시스템(10)의 특정 기능이 복수개의 컴퓨팅 장치들에서 구현될 수도 있다. Transformation system 10 may be implemented with at least one computing device. For example, all of the functionality of conversion system 10 may be implemented in a single computing device, with a first function of conversion system 10 being implemented in a first computing device and a second functionality in a second computing device. It may be implemented. Alternatively, certain functions of conversion system 10 may be implemented on multiple computing devices.
컴퓨팅 장치는 컴퓨팅 기능을 구비한 다양한 유형의 장치를 모두 포괄할 수 있으며, 이러한 장치의 일 예시에 관하여서는 도 20을 참조하도록 한다.Computing devices may encompass various types of devices equipped with computing functions, and for an example of such devices, refer to FIG. 20.
지금까지 도 1 내지 도 5를 참조하여 본 개시의 몇몇 실시예들에 따른 변환 시스템(10)에 대하여 설명하였다. 이하에서는, 변환 시스템(10)에서 수행될 수 있는 다양한 방법들에 대하여 설명하도록 한다.So far, the conversion system 10 according to some embodiments of the present disclosure has been described with reference to FIGS. 1 to 5. Below, various methods that can be performed in the conversion system 10 will be described.
이하에서는, 이해의 편의를 제공하기 위해, 후술될 방법들의 모든 단계/동작이 상술한 변환 시스템(10)에서 수행되는 것을 가정하여 설명을 이어가도록 한다. 따라서, 특정 단계/동작의 주체가 생략된 경우, 변환 시스템(10)에서 수행되는 것으로 이해될 수 있다. 다만, 실제 환경에서는, 후술될 방법들의 일부 단계가 다른 컴퓨팅 장치에서 수행될 수도 있다.Hereinafter, in order to provide convenience of understanding, the description will be continued assuming that all steps/operations of the methods to be described later are performed in the conversion system 10 described above. Accordingly, if the subject of a specific step/action is omitted, it may be understood as being performed in the conversion system 10. However, in a real environment, some steps of the methods to be described later may be performed on other computing devices.
먼저, 도 6 내지 도 8을 참조하여 본 개시의 몇몇 실시예들에 따른 이미지 변환 방법에 대하여 설명하도록 한다.First, an image conversion method according to some embodiments of the present disclosure will be described with reference to FIGS. 6 to 8.
도 6은 본 개시의 몇몇 실시예들에 따른 이미지 변환 방법을 개략적으로 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.6 is an example flowchart schematically illustrating an image conversion method according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
도 6에 도시된 바와 같이, 실시예들에 따른 이미지 변환 방법은 언페어드 이미지셋을 획득하는 단계 S61에서 시작될 수 있다. 상술한 바와 같이, 언페어드 이미지셋은 저품질의 이미지와 고품질의 이미지로 구성되되, 두 이미지가 서로 페어(pair)를 이루고 있지 않은 이미지셋을 의미할 수 있다. 가령, 저품질의 이미지와 고품질의 이미지가 서로 다른 환자(또는 병원 등)로부터 얻어진 것일 수 있다.As shown in FIG. 6, the image conversion method according to embodiments may begin at step S61 of acquiring an unpaired image set. As described above, an unpaired image set may mean an image set composed of a low-quality image and a high-quality image, but the two images are not paired with each other. For example, low-quality images and high-quality images may be obtained from different patients (or hospitals, etc.).
단계 S62에서, 획득된 언페어드 이미지셋으로부터 페어드 이미지셋이 생성될 수 있다. 다만, 페어드 이미지셋을 생성하는 구체적인 방식은 실시예에 따라 달라질 수 있다.In step S62, a paired image set may be created from the obtained unpaired image set. However, the specific method of generating a paired image set may vary depending on the embodiment.
일 실시예에서는, 이미지 정합 기법을 이용하여 페어드 이미지셋이 생성될 수 있다. 본 실시예에 관하여서는 추후 도 9 내지 도 11을 참조하여 상세하게 설명하도록 한다.In one embodiment, a paired image set may be created using an image matching technique. This embodiment will be described in detail later with reference to FIGS. 9 to 11.
다른 실시예에서는, 도메인 변환 능력을 구비한 GAN 모델을 이용하여 페어드 이미지셋이 생성될 수 있다. 본 실시예에 관하여서는 추후 도 12 내지 도 16을 참조하여 상세하게 설명하도록 한다.In another embodiment, a paired image set can be created using a GAN model with domain transformation capabilities. This embodiment will be described in detail later with reference to FIGS. 12 to 16.
또 다른 실시예에서는, 이미지 정합 기법과 GAN 모델을 함께 이용하여 페어드 이미지셋이 생성될 수 있다. 이러한 경우, 보다 양질의 페어드 이미지셋이 생성될 수 있는데, 본 실시예에 관하여서는 추후 도 17 내지 도 19를 참조하여 상세하게 설명하도록 한다.In another embodiment, a paired image set can be created using an image matching technique and a GAN model together. In this case, a better quality paired image set can be generated, and this embodiment will be described in detail later with reference to FIGS. 17 to 19.
한편, 본 개시의 일 실시예에 따르면, 페어드 이미지셋을 생성하는 과정 중에 두 이미지에 대한 유사도가 평가될 수도 있다. 그리고, 유사도가 기준치 이상이라는 평가 결과에 기초하여 두 이미지가 페어로 구성될 수 있다. 가령, 변환 시스템(10)은 두 이미지의 상관계수(correlation coefficient)를 산출하고, 상관계수가 기준치 이상이라는 판정에 응답하여 두 이미지를 페어로 구성할 수 있다. 그렇게 함으로써, 보다 고품질의 페어드 이미지셋이 생성될 수 있다. 당해 기술 분야의 종사자라면, 두 이미지의 상관계수를 산출하는 수식(또는 방법)을 이미 숙지하고 있을 것인 바, 상관계수 자체에 대한 설명은 생략하도록 한다.Meanwhile, according to an embodiment of the present disclosure, the similarity between two images may be evaluated during the process of generating a paired image set. Additionally, based on the evaluation result that the similarity is greater than or equal to the standard value, the two images may be configured as a pair. For example, the conversion system 10 may calculate the correlation coefficient of the two images and configure the two images as a pair in response to a determination that the correlation coefficient is greater than a reference value. By doing so, a higher quality paired image set can be generated. Anyone working in the relevant technical field will already be familiar with the formula (or method) for calculating the correlation coefficient between two images, so description of the correlation coefficient itself will be omitted.
단계 S63에서, 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 품질 변환(향상)을 수행하는 딥러닝 모델이 구축될 수 있다. 가령, 변환 시스템(10)은 저품질 이미지와 고품질 이미지의 페어를 이용하여 딥러닝 모델을 학습시킴으로써, 딥러닝 모델이 입력된 이미지에 대한 품질 변환(향상) 능력을 갖추도록 할 수 있다. 다만, 딥러닝 모델의 세부 구조는 다양하게 설계 및 구현될 수 있다.In step S63, a deep learning model that performs quality conversion (improvement) on the input image can be built using the generated paired image set. For example, the conversion system 10 can train a deep learning model using a pair of low-quality images and high-quality images, thereby enabling the deep learning model to have the ability to convert (improve) the quality of the input image. However, the detailed structure of the deep learning model can be designed and implemented in various ways.
일 실시예에서는, 도 7에 도시된 바와 같이, 딥러닝 모델이 입력 이미지(71)를 인코딩하는 인코더와 인코딩 데이터를 디코딩하여 보다 고품질의 이미지(76)를 출력하는 디코더로 구성될 수 있다. 도 7은 입력 이미지(71)가 MR 이미지인 경우를 예시하고 있다. 보다 구체적으로, 딥러닝 모델의 인코더는 입력 이미지(71)로부터 서로 다른 추상화 레벨의 특징 데이터(e.g. 72, 73; 즉, 특징맵)를 추출하는 복수의 인코딩 블록들로 구성될 수 있다. 각각의 인코딩 블록은 예를 들어 컨볼루션 레이어(convolutional layer), 다운샘플링 레이어(down-sampling layer; e.g. pooling layer) 등으로 구성될 수 있으나, 본 개시의 범위가 이에 한정되는 것은 아니다. 딥러닝 모델의 디코더는 복수의 디코딩 블록들로 구성될 수 있고, 각 디코딩 블록은 예를 들어 컨볼루션 레이어 또는 디컨볼루션 레이어(de-convolutional layer), 업샘플링 레이어(un-sampling layer) 등으로 구성될 수 있으나, 본 개시의 범위가 이에 한정되는 것은 아니다. 또한, 복수의 디코딩 블록들은 복수의 인코딩 블록들과 대응될 수 있고, 디코딩 블록과 인코딩 블록 사이에는 특징 데이터(e.g. 72, 73)를 전달하는 스킵-커넥션(e.g. 74, 75; skip-connection)이 형성될 수 있다. 각 디코딩 블록은 하위 레벨에서 디코딩된 특징 데이터에서 스킵-커넥션(e.g. 74, 75)을 통해 전달받은 특징 데이터(e.g. 72, 73)을 취합(e.g. concatenation)하여 디코딩을 수행하기 때문에, 품질 변환 기능을 보다 정확하게 수행할 수 있다. 도 7은 딥러닝 모델이 U자형 구조로 이루어진 것을 예시하고 있으나, 딥러닝 모델은 W자형 구조(즉, U자형 네트워크가 반복되는 구조)로 이루어질 수도 있다. 참고로, 도 7에 예시된 딥러닝 모델은 픽셀 단위의 예측(pixel-wise prediction 또는 dense prediction) 태스크를 수행하는데 특화된 모델인데, 입력 이미지(71)에 대한 품질 변환(향상)도 결국 각 픽셀의 값을 예측하는 태스크의 일종이기 때문에, 도 7에 예시된 딥러닝 모델을 이용하면 상당히 높은 정확도로 품질 변환이 수행될 수 있다.In one embodiment, as shown in FIG. 7, a deep learning model may be composed of an encoder that encodes the input image 71 and a decoder that decodes the encoded data and outputs a higher quality image 76. Figure 7 illustrates the case where the input image 71 is an MR image. More specifically, the encoder of the deep learning model may be composed of a plurality of encoding blocks that extract feature data (e.g. 72, 73; i.e., feature map) of different abstraction levels from the input image 71. Each encoding block may be composed of, for example, a convolutional layer, a down-sampling layer (e.g. pooling layer), etc., but the scope of the present disclosure is not limited thereto. The decoder of a deep learning model may be composed of a plurality of decoding blocks, and each decoding block may be divided into, for example, a convolution layer, a de-convolutional layer, an upsampling layer, etc. However, the scope of the present disclosure is not limited thereto. In addition, a plurality of decoding blocks may correspond to a plurality of encoding blocks, and there is a skip-connection (e.g. 74, 75; skip-connection) that transfers feature data (e.g. 72, 73) between the decoding block and the encoding block. can be formed. Since each decoding block performs decoding by collecting (e.g. concatenation) the feature data (e.g. 72, 73) received through skip-connection (e.g. 74, 75) from the feature data decoded at the lower level, the quality conversion function is performed. It can be performed more accurately. Figure 7 illustrates that the deep learning model is composed of a U-shaped structure, but the deep learning model may be composed of a W-shaped structure (i.e., a structure in which a U-shaped network is repeated). For reference, the deep learning model illustrated in FIG. 7 is a model specialized for performing pixel-wise prediction (pixel-wise prediction or dense prediction) tasks, and quality conversion (improvement) for the input image 71 also ultimately involves the performance of each pixel. Because it is a type of task that predicts values, quality conversion can be performed with fairly high accuracy using the deep learning model illustrated in FIG. 7.
다른 실시예에서는, 딥러닝 모델이 도메인 변환 능력을 구비한 GAN 모델로 구현될 수 있다. 이러한 GAN 모델의 예로는 UNIT(Unsupervised Image-to-Image Translation), MUNIT(Multimodal Unsupervised Image-to-Image Translation), Star-GAN 등을 들 수 있을 것이나, 본 개시의 범위가 이에 한정되는 것은 아니다.In another embodiment, the deep learning model may be implemented as a GAN model with domain transformation capabilities. Examples of such GAN models may include UNIT (Unsupervised Image-to-Image Translation), MUNIT (Multimodal Unsupervised Image-to-Image Translation), Star-GAN, etc., but the scope of the present disclosure is not limited thereto.
다시 도 6을 참조하여 설명한다.This will be described again with reference to FIG. 6 .
단계 S64에서, 구축된 딥러닝 모델을 이용하여 이미지에 대한 품질 변환이 수행될 수 있다. 가령, 변환 시스템(10)은 구축된 딥러닝 모델을 통해 피진단자의 의료 이미지를 보다 고품질의 의료 이미지로 변환할 수 있다. 이를테면, 변환 시스템(10)은 피진단자의 MR 이미지를 보다 고품질의 MR 이미지로 변환하거나, CT 이미지를 보다 고품질의 CT 이미지로 변환할 수 있다.In step S64, quality conversion on the image may be performed using the constructed deep learning model. For example, the conversion system 10 can convert a medical image of a diagnosed patient into a higher quality medical image through the built deep learning model. For example, the conversion system 10 can convert an MR image of a patient being diagnosed into a higher quality MR image or convert a CT image into a higher quality CT image.
한편, 도 6에 도시되어 있지는 않으나, 본 개시의 일 실시예에 따르면, 딥러닝 모델을 통해 변환(생성)된 이미지(즉, 합성 이미지)의 품질을 검증하기 위해, 변환된 이미지의 품질을 평가하는 단계가 더 수행될 수도 있다. 가령, 변환 시스템(10)은 딥러닝 모델을 통해 제1 이미지를 보다 고품질의 제2 이미지로 변환하고, 지정된 평가 메트릭을 이용하여 제2 이미지의 품질을 평가할 수 있다. 이때, 지정된 평가 메트릭은 예를 들어 제1 이미지와 제2 이미지와의 상관계수, 신호대잡음비 차이, 픽셀 강도(또는 신호 강도)의 차이(e.g. 평균 픽셀 강도값의 차이) 등이 될 수 있을 것이나, 본 개시의 범위가 이에 한정되는 것은 아니다. 보다 구체적인 예로서, 변환 시스템(10)은 상관계수의 값이 클수록, 신호대잡음비의 차이가 클수록(즉, 제2 이미지의 신호대잡음비 값이 제1 이미지 대비 많이 증가할수록), 평균 픽셀 강도값의 차이가 클수록(즉, 제2 이미지의 평균 픽셀 강도값이 제1 이미지 대비 많이 증가할수록) 제2 이미지의 품질이 더 향상되었다고 평가할 수 있다.Meanwhile, although not shown in FIG. 6, according to an embodiment of the present disclosure, in order to verify the quality of an image (i.e., synthetic image) converted (generated) through a deep learning model, the quality of the converted image is evaluated. Additional steps may be performed. For example, the conversion system 10 may convert a first image into a higher quality second image through a deep learning model and evaluate the quality of the second image using a designated evaluation metric. At this time, the designated evaluation metric may be, for example, a correlation coefficient between the first image and the second image, a difference in signal-to-noise ratio, a difference in pixel intensity (or signal intensity) (e.g. difference in average pixel intensity value), etc. The scope of the present disclosure is not limited thereto. As a more specific example, the conversion system 10 determines that the larger the value of the correlation coefficient and the larger the difference in signal-to-noise ratio (i.e., the more the signal-to-noise ratio value of the second image increases compared to the first image), the difference in the average pixel intensity value. The larger the (i.e., the more the average pixel intensity value of the second image increases compared to the first image), the more the quality of the second image can be evaluated to be improved.
또한, 도 6에 도시되어 있지는 않으나, 본 개시의 일 실시예에 따르면, 이미지의 유형을 변환하도록 학습된 다른 딥러닝 모델을 통해 변환된 이미지의 유형을 변환하는 단계가 더 수행될 수도 있다. 가령, 변환 시스템(10)은 구축된 딥러닝 모델을 통해 피진단자의 제1 MR 이미지를 보다 고품질의 제2 MR 이미지로 변환하고, 다른 딥러닝 모델을 통해 제2 MR 이미지를 CT 이미지로 변환할 수 있다. 그렇게 함으로써, 피진단자가 방사선 피폭의 위험성에서 자유로워질 수 있고, 낙후된 MRI 장비(e.g. 저자장 MRI 촬영 장비)만을 구비한 병원에서도 고품질의 MR 이미지와 CT 이미지가 용이하게 확보될 수 있어, 진단 프로세스와 의료 환경이 전반적으로 크게 개선될 수 있다. 경우에 따라, 변환 시스템(10)은 제2 MR 이미지의 품질을 평가하고, 평가된 품질이 소정의 조건을 만족한다는 판정에 응답하여 제2 MR 이미지를 CT 이미지로 변환할 수도 있다. 이때, MR 이미지의 품질은 상술한 바와 같이 상관계수, 신호대잡음비 차이, 신호 강도(signal intensity) 차이 등과 같은 평가 메트릭에 기초하여 평가될 수 있다.In addition, although not shown in FIG. 6, according to an embodiment of the present disclosure, a step of converting the type of the converted image through another deep learning model learned to convert the type of the image may be further performed. For example, the conversion system 10 converts the first MR image of the diagnosed patient into a higher-quality second MR image through the constructed deep learning model, and converts the second MR image into a CT image through another deep learning model. You can. By doing so, the diagnosed patient can be free from the risk of radiation exposure, and high-quality MR images and CT images can be easily secured even in hospitals equipped only with outdated MRI equipment (e.g. low-field MRI imaging equipment), thereby facilitating diagnosis. Processes and the overall healthcare environment can be significantly improved. In some cases, the conversion system 10 may evaluate the quality of the second MR image and convert the second MR image into a CT image in response to a determination that the evaluated quality satisfies a predetermined condition. At this time, the quality of the MR image can be evaluated based on evaluation metrics such as correlation coefficient, signal-to-noise ratio difference, signal intensity difference, etc., as described above.
앞선 실시예에서, 이미지의 유형을 변환하는 딥러닝 모델(e.g. MR 이미지를 CT 이미지로 변환하는 딥러닝 모델)은 이미지의 품질 변환을 수행하는 딥러닝 모델과 유사한 구조를 갖고 유사한 방식으로 구축될 수 있다. 가령, 도 8에 도시된 바와 같이, MR 이미지(81)를 CT 이미지(82)로 변환하는 딥러닝 모델은 U자형 유사 구조(e.g. U자형, W자형)의 신경망으로 구현될 수 있고, 도 6에 예시된 방식에 따라 구축된 것일 수도 있다. 경우에 따라, 해당 딥러닝 모델은 도메인 변환 능력을 구비한 GAN 모델로 구현될 수도 있다. 해당 딥러닝 모델에 대한 설명은 도 7의 설명 내용을 더 참조하도록 한다.In the previous embodiment, a deep learning model that converts the type of image (e.g. a deep learning model that converts an MR image to a CT image) has a similar structure to the deep learning model that performs image quality conversion and can be built in a similar manner. there is. For example, as shown in FIG. 8, the deep learning model that converts the MR image 81 into the CT image 82 may be implemented as a neural network with a U-shaped similar structure (e.g. U-shaped, W-shaped), and FIG. 6 It may have been constructed according to the method illustrated in . In some cases, the deep learning model may be implemented as a GAN model with domain transformation capabilities. For a description of the deep learning model, please refer to the description in FIG. 7.
지금까지 도 6 내지 도 8을 참조하여 본 개시의 몇몇 실시예들에 따른 이미지 변환 방법에 대하여 설명하였다. 상술한 바에 따르면, 다중 도메인에 대한 언페어드 이미지셋으로부터 페어드 이미지셋이 생성되고, 생성된 페어드 이미지셋을 이용하여 이미지의 품질 변환을 수행하는 딥러닝 모델이 구축될 수 있다. 이에 따라, 이미지의 품질 변환을 정확하게 수행하는 딥러닝 모델이 구축될 수 있으며, 저품질의 이미지(e.g. MR 이미지)가 고품질의 이미지로 정확하게 변환될 수 있다.So far, an image conversion method according to some embodiments of the present disclosure has been described with reference to FIGS. 6 to 8 . According to the above, a paired image set can be created from an unpaired image set for multiple domains, and a deep learning model that performs image quality conversion using the generated paired image set can be built. Accordingly, a deep learning model that accurately performs image quality conversion can be built, and low-quality images (e.g. MR images) can be accurately converted into high-quality images.
한편, 상술한 이미지 변환 방법은 도메인 변환의 다른 예시들에도 실질적인 기술적 사상의 변경없이 적용될 수 있다. 가령, 변환 시스템(10)은 제1 도메인의 이미지(e.g. 제1 유형의 이미지)와 제2 도메인의 이미지(e.g. 제2 유형의 이미지)로 구성된 언페어드 이미지셋을 획득하고, 획득된 언페어드 이미지셋으로부터 페어드 이미지셋을 생성하며, 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대해 도메인 변환을 수행하는 다양한 딥러닝 모델을 구축할 수 있다. 이를테면, 변환 시스템(10)은 MR 이미지와 CT 이미지로 구성된 언페어드 이미지셋으로부터 페어드 이미지셋을 생성하고, 생성된 페어드 이미지셋을 이용하여 입력된 MR 이미지를 CT 이미지로 변환하는 딥러닝 모델을 구축할 수도 있다.Meanwhile, the above-described image conversion method can be applied to other examples of domain conversion without changing the actual technical idea. For example, the conversion system 10 acquires an unpaired image set consisting of an image of a first domain (e.g. an image of a first type) and an image of a second domain (e.g. an image of a second type), and the obtained unpaired image A paired image set is created from the set, and various deep learning models that perform domain transformation on the input image can be built using the created paired image set. For example, the conversion system 10 is a deep learning model that generates a paired image set from an unpaired image set composed of MR images and CT images, and converts the input MR image into a CT image using the generated paired image set. You can also build .
이하에서는, 도 9 내지 도 19를 참조하여 본 개시의 몇몇 실시예들에 따른 페어드 이미지셋 생성 방법에 대하여 설명하도록 한다. 이하의 설명에서는, 주어진 언페어드 이미지셋을 구성하는 이미지를 다른 이미지(e.g. 후술될 정합 이미지, 합성 이미지)와 구별하기 위해 '원본 이미지'로 칭하도록 한다. 또한, 이해의 편의를 제공하기 위해, 언페어드 이미지셋이 저품질의 이미지와 고품질의 이미지로 구성된 것을 가정하여 설명을 이어가도록 한다. 다만, 본 개시의 범위가 이에 한정되는 것은 아니며, 언페어드 이미지셋이 제1 유형의 이미지(e.g. MR 이미지)와 제2 유형의 이미지(e.g. CT 이미지)로 구성된 경우에도 이하의 설명 내용이 실질적인 기술적 사상의 변경없이 적용될 수 있다.Hereinafter, a method for generating a paired image set according to some embodiments of the present disclosure will be described with reference to FIGS. 9 to 19. In the following description, the images constituting the given unpaired image set will be referred to as 'original images' to distinguish them from other images (e.g. registered images and composite images, which will be described later). Additionally, to provide convenience of understanding, the explanation will be continued assuming that the unpaired image set consists of low-quality images and high-quality images. However, the scope of the present disclosure is not limited thereto, and even when the unpaired image set consists of a first type of image (e.g. MR image) and a second type of image (e.g. CT image), the following description does not apply to practical technical purposes. It can be applied without changing the ideology.
먼저, 도 9 내지 도 11을 참조하여 본 개시의 일 실시예에 따른 페어드 이미지셋 생성 방법에 대하여 설명하도록 한다.First, a method for generating a paired image set according to an embodiment of the present disclosure will be described with reference to FIGS. 9 to 11.
도 9는 본 개시의 일 실시예에 따른 페어드 이미지셋 생성 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.Figure 9 is an exemplary flowchart showing a method of generating a paired image set according to an embodiment of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
도 9에 도시된 바와 같이, 본 실시예는 저품질의 원본 이미지와 고품질의 원본 이미지를 정합하여 정합 이미지를 생성하는 단계 S91에서 시작될 수 있다. 가령, 변환 시스템(10)은 저품질의 원본 이미지를 고품질 이미지에 맞게 정합(또는 변형)함으로써, 저품질의 정합 이미지를 생성할 수 있다. 또는, 변환 시스템(10)은 고품질의 원본 이미지를 저품질 이미지에 맞게 정합(또는 변형)함으로써, 고품질의 정합 이미지를 생성할 수도 있다. 이때, 두 이미지의 정합은 예를 들어 변형 정합(deformable registration) 기법을 통해 수행될 수 있을 것이나, 본 개시의 범위가 이에 한정되는 것은 아니며, 다른 정합 기법이 적용될 수도 있다.As shown in FIG. 9, this embodiment may begin at step S91, where a low-quality original image and a high-quality original image are matched to generate a registered image. For example, the conversion system 10 may generate a low-quality registered image by matching (or transforming) a low-quality original image to a high-quality image. Alternatively, the conversion system 10 may generate a high-quality registered image by matching (or transforming) a high-quality original image to a low-quality image. At this time, registration of the two images may be performed through, for example, a deformable registration technique, but the scope of the present disclosure is not limited thereto, and other registration techniques may be applied.
단계 S92에서, 원본 이미지와 정합 이미지가 페어로 구성될 수 있다. 가령, 변환 시스템(10)은 저품질의 원본 이미지와 고품질의 정합 이미지를 페어로 구성할 수 있다. 또는, 변환 시스템(10)은 고품질의 원본 이미지와 저품질의 정합 이미지를 페어로 구성할 수도 있다.In step S92, the original image and the registered image may be configured as a pair. For example, the conversion system 10 may configure a low-quality original image and a high-quality registered image as a pair. Alternatively, the conversion system 10 may configure a high-quality original image and a low-quality matched image as a pair.
상술한 단계 S91 및 S92가 언페어드 이미지셋을 구성하는 다수의 이미지들에 대하여 반복 수행됨으로써, 언페어드 이미지셋이 페어드 이미지셋으로 변환될 수 있다.By repeatedly performing steps S91 and S92 described above on a plurality of images constituting the unpaired image set, the unpaired image set can be converted to a paired image set.
보다 이해의 편의를 제공하기 위해, 도 10 및 도 11을 참조하여 부연 설명하도록 한다.In order to provide easier understanding, further explanation will be made with reference to FIGS. 10 and 11.
도 10 및 도 11은 변형 정합 기법을 통해 언페어드 이미지셋(도 11의 111)으로부터 페어드 이미지셋(도 11의 112)이 생성되는 것을 예시하고 있다. 또한, 언페어드 이미지셋(도 11의 111)을 구성하는 저품질의 이미지(101)가 저자장 MR 이미지(e.g. 0.06T)이고, 고품질의 이미지(102)가 고자장 MR 이미지(e.g. 1.5T)인 것을 예시하고 있다. 또한, 이하의 도면에서, 'deformed 1.5T'는 1.5T의 원본 MR 이미지('Original 1.5T' 참조)로부터 생성된 정합 MR 이미지를 의미한다.Figures 10 and 11 illustrate that a paired image set (112 in Figure 11) is generated from an unpaired image set (111 in Figure 11) through a transformation matching technique. In addition, the low-quality image 101 constituting the unpaired image set (111 in FIG. 11) is a low-field MR image (e.g. 0.06T), and the high-quality image 102 is a high-field MR image (e.g. 1.5T). It illustrates this. Additionally, in the drawings below, 'deformed 1.5T' refers to a registered MR image generated from the original 1.5T MR image (see 'Original 1.5T').
도 10에 도시된 바와 같이, 변형 정합 기법을 통해 고품질의 이미지(102)로부터 고품질의 정합 이미지(103)가 생성될 수 있다. 즉, 고품질의 이미지(102)를 저품질의 이미지(101)에 맞게 변형함으로써, 고품질의 정합 이미지(103)가 생성될 수 있다. 다만, 경우에 따라서는, 저품질의 이미지(101)를 고품질의 이미지(102)에 맞게 변형함으로써, 저품질의 정합 이미지(미도시)가 생성될 수도 있다.As shown in FIG. 10, a high-quality registered image 103 can be generated from a high-quality image 102 through a transformation registration technique. That is, by transforming the high-quality image 102 to fit the low-quality image 101, a high-quality registered image 103 can be generated. However, in some cases, a low-quality registered image (not shown) may be generated by transforming the low-quality image 101 to fit the high-quality image 102.
다음으로, 생성된 정합 이미지(103)와 다른 품질의 원본 이미지(101)가 페어로 구성될 수 있고, 이러한 과정이 반복됨에 따라, 도 11에 도시된 바와 같이, 언페어드 이미지셋(111)으로부터 페어드 이미지셋(112)이 생성될 수 있다.Next, the generated registered image 103 and the original image 101 of different quality can be composed of a pair, and as this process is repeated, as shown in FIG. 11, from the unpaired image set 111 A paired image set 112 may be created.
지금까지 도 9 내지 도 11을 참조하여 본 개시의 일 실시예에 따른 페어드 이미지셋 생성 방법에 대하여 설명하였다. 상술한 바에 따르면, 이미지 정합 기법을 이용하여 언페어드 이미지셋(e.g. 111)으로부터 페어드 이미지셋(e.g. 112)이 생성될 수 있다. 이에 따라, 다중 도메인에 대한 페어드 이미지셋(e.g. 112)이 용이하게 확보될 수 있고, 페어드 이미지셋(e.g. 112) 확보에 소요되는 시간 비용 및 인적 비용이 크게 절감될 수 있다. 뿐만 아니라, 생성된 페어드 이미지셋(e.g. 112)을 이용함으로써, 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델이 용이하게 구축될 수 있다.So far, a method for generating a paired image set according to an embodiment of the present disclosure has been described with reference to FIGS. 9 to 11 . According to the above, a paired image set (e.g. 112) can be created from an unpaired image set (e.g. 111) using an image matching technique. Accordingly, a paired image set (e.g. 112) for multiple domains can be easily secured, and the time and human costs required to secure a paired image set (e.g. 112) can be greatly reduced. In addition, by using the generated paired image set (e.g. 112), a high-performance deep learning model that accurately performs domain transformation can be easily built.
이하에서는, 도 12 내지 도 16을 참조하여 본 개시의 다른 실시예에 따른 페어드 이미지셋 생성 방법에 대하여 설명하도록 한다.Hereinafter, a method for generating a paired image set according to another embodiment of the present disclosure will be described with reference to FIGS. 12 to 16.
도 12는 본 개시의 다른 실시예에 따른 페어드 이미지셋을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.Figure 12 is an example flowchart showing a paired image set according to another embodiment of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
도 12에 도시된 바와 같이, 본 실시예는 언페어드 이미지셋을 이용하여 GAN 모델을 트레이닝하는 단계 S121에서 시작될 수 있다. 이때, GAN 모델은 언페어드 이미지셋을 학습함으로써 도메인 변환 능력을 갖출 수 있는 모델을 의미하고, 이러한 모델의 예로는 Cycle-GAN, UNIT(Unsupervised Image-to-Image Translation), MUNIT(Multimodal Unsupervised Image-to-Image Translation) 등을 들 수 있다. 그러나, 본 개시의 범위가 이에 한정되는 것은 아니다.As shown in FIG. 12, this embodiment may begin at step S121 of training a GAN model using an unpaired image set. At this time, the GAN model refers to a model that can have domain transformation capabilities by learning an unpaired image set. Examples of such models include Cycle-GAN, UNIT (Unsupervised Image-to-Image Translation), and MUNIT (Multimodal Unsupervised Image-Translation). to-Image Translation), etc. However, the scope of the present disclosure is not limited thereto.
본 단계에서, 변환 시스템(10)은 언페어드 이미지셋을 그대로 이용하여 GAN 모델을 학습시킬 수 있고, 그 결과 GAN 모델이 저품질의 이미지를 고품질의 이미지로 변환하는 능력을 갖출 수 있게 된다. 보다 이해의 편의를 제공하기 위해, 도 13 및 도 14를 참조하여 GAN 모델의 구조와 학습 방법에 대하여 부연 설명하도록 한다.At this stage, the conversion system 10 can learn the GAN model using the unpaired image set as is, and as a result, the GAN model has the ability to convert low-quality images into high-quality images. In order to provide easier understanding, the structure and learning method of the GAN model will be further explained with reference to FIGS. 13 and 14.
도 13은 본 개시의 일 실시예에 따른 GAN 모델의 구조 및 학습 방법을 설명하기 위한 예시적인 도면이다. 특히, 도 13은 GAN 모델이 Cycle-GAN 모델이고, 언페어드 이미지셋이 저품질의 MR 이미지(e.g. 0.06T의 저자장 MR 이미지)와 고품질의 MR 이미지(e.g. 1.5T의 고자장 MR 이미지)로 구성된 것을 예시하고 있다. 또한, 이하의 도면에서, 'Synthetic 0.06T', 'Synthetic 1.5T'는 각각 0.06T와 1.5T의 원본(실제) MR 이미지('Original 0.06T'와 'Original 1.5T' 참조)로부터 생성된 합성 MR 이미지를 의미한다.Figure 13 is an example diagram for explaining the structure and learning method of a GAN model according to an embodiment of the present disclosure. In particular, Figure 13 shows that the GAN model is a Cycle-GAN model, and the unpaired image set consists of low-quality MR images (e.g. low-field MR images of 0.06T) and high-quality MR images (e.g. high-field MR images of 1.5T). It illustrates this. Additionally, in the drawings below, 'Synthetic 0.06T' and 'Synthetic 1.5T' are synthesis generated from original (actual) MR images of 0.06T and 1.5T, respectively (see 'Original 0.06T' and 'Original 1.5T'). It means MR image.
도 13에 도시된 바와 같이, 본 실시예에 따른 GAN 모델은 제1 생성기(131), 제2 생성기(132), 제1 판별기(133) 및 제2 판별기(134)를 포함하도록 구성될 수 있다.As shown in Figure 13, the GAN model according to this embodiment will be configured to include a first generator 131, a second generator 132, a first discriminator 133, and a second discriminator 134. You can.
제1 생성기(131)는 고품질의 이미지(135-1, 136-2)를 저품질의 이미지(135-2, 136-3)로 변환할 수 있다. 그리고, 제1 판별기(133)는 입력된 저품질의 이미지(136-1, 135-2)가 실제 이미지(real 참조)인지 아니면 합성 이미지(fake 참조)인지를 판별할 수 있다. 제1 생성기(131)와 제1 판별기(133) 간에는 적대적 학습이 수행될 수 있다.The first generator 131 may convert high quality images 135-1 and 136-2 into low quality images 135-2 and 136-3. Additionally, the first discriminator 133 can determine whether the input low-quality images 136-1 and 135-2 are real images (see real) or synthetic images (see fake). Adversarial learning may be performed between the first generator 131 and the first discriminator 133.
또한, 제1 생성기(131)는 일관성 오차(consistency loss)를 이용하여 더 학습될 수 있다. 이때, 일관성 오차는 제1 생성기(131)로 입력된 실제 이미지(135-1)와 제2 생성기(132)를 통해 변환된 합성 이미지(135-3) 간의 차이에 기초하여 산출될 수 있다. 일관성 오차를 학습함으로써, 제1 생성기(131)는 이미지셋이 페어로 구성되어 있지 않더라도 정확하게 이미지의 품질 변환을 수행할 수 있게 된다.Additionally, the first generator 131 may be further trained using consistency loss. At this time, the consistency error may be calculated based on the difference between the actual image 135-1 input to the first generator 131 and the composite image 135-3 converted through the second generator 132. By learning the consistency error, the first generator 131 can accurately perform image quality conversion even if the image set is not composed of pairs.
다음으로, 제2 생성기(132)는 저품질의 이미지(136-1, 135-2)를 고품질의 이미지(136-2, 135-3)로 변환할 수 있다. 그리고, 제2 판별기(134)는 입력된 고품질의 이미지(135-1, 136-2)가 실제 이미지(real 참조)인지 아니면 합성 이미지(fake 참조)인지를 판별할 수 있다. 제2 생성기(132)와 제2 판별기(134) 간에는 적대적 학습이 수행될 수 있다.Next, the second generator 132 may convert the low-quality images 136-1 and 135-2 into high-quality images 136-2 and 135-3. Additionally, the second discriminator 134 can determine whether the input high-quality images 135-1 and 136-2 are real images (see real) or synthetic images (see fake). Adversarial learning may be performed between the second generator 132 and the second discriminator 134.
또한, 제2 생성기(132)도 일관성 오차를 이용하여 더 학습될 수 있다. 제2 생성기(132)의 학습 방법은 제1 생성기(131)와 유사한 바 더 이상의 설명은 생략하도록 한다.Additionally, the second generator 132 may also be further learned using the consistency error. Since the learning method of the second generator 132 is similar to that of the first generator 131, further description will be omitted.
GAN 모델의 학습이 완료되면, 제1 생성기(131)를 통해 고품질의 이미지(e.g. 135-1)가 저품질의 합성 이미지(e.g. 135-2)로 변환될 수 있고, 제2 생성기(132)를 통해 저품질의 이미지(e.g. 136-1)가 고품질의 합성 이미지(e.g. 136-2)로 변환될 수 있다.When learning of the GAN model is completed, a high-quality image (e.g. 135-1) can be converted into a low-quality synthetic image (e.g. 135-2) through the first generator 131, and through the second generator 132 A low-quality image (e.g. 136-1) can be converted into a high-quality composite image (e.g. 136-2).
도 14는 본 개시의 다른 실시예에 따른 GAN 모델의 구조 및 학습 방법을 설명하기 위한 예시적인 도면이다. 특히, 도 14는 GAN 모델이 UNIT 모델이고, 언페어드 이미지셋이 저품질의 MR 이미지(e.g. 0.06T의 저자장 MR 이미지)와 고품질의 MR 이미지(e.g. 1.5T의 고자장 MR 이미지)로 구성된 것을 예시하고 있다.Figure 14 is an example diagram for explaining the structure and learning method of a GAN model according to another embodiment of the present disclosure. In particular, Figure 14 illustrates that the GAN model is a UNIT model, and the unpaired image set is composed of low-quality MR images (e.g. low-field MR images of 0.06T) and high-quality MR images (e.g. high-field MR images of 1.5T). I'm doing it.
도 14에 도시된 바와 같이, 본 실시예에 따른 GAN 모델은 고품질과 연관된 제1 인코더(141), 제1 생성기(143) 및 제1 판별기(145)와, 저품질과 연관된 제2 인코더(142), 제2 생성기(144) 및 제2 판별기(146)를 포함하도록 구성될 수 있다.As shown in Figure 14, the GAN model according to this embodiment includes a first encoder 141, a first generator 143, and a first discriminator 145 associated with high quality, and a second encoder 142 associated with low quality. ), a second generator 144, and a second discriminator 146.
제1 인코더(141)는 고품질의 이미지(148-1)를 인코딩 데이터(147)로 인코딩할 수 있고, 제2 인코더(142)는 저품질 이미지(148-1)를 인코딩 데이터(147)로 인코딩할 수 있다. 인코딩 데이터(147)는 고품질과 저품질 이미지 간(즉, 서로 다른 도메인 간)에 공유되는 잠재 공간(latent shared space) 상의 데이터로 이해될 수 있다.The first encoder 141 may encode the high-quality image 148-1 into encoding data 147, and the second encoder 142 may encode the low-quality image 148-1 into encoding data 147. You can. Encoding data 147 may be understood as data on a latent shared space shared between high-quality and low-quality images (i.e., between different domains).
제1 생성기(143)는 인코딩 데이터(147)에 기초하여 고품질의 합성 이미지(148-2)를 생성할 수 있고, 제2 생성기(144)는 인코딩 데이터(147)에 기초하여 저품질의 합성 이미지(149-2)를 생성할 수 있다.The first generator 143 may generate a high-quality composite image 148-2 based on the encoding data 147, and the second generator 144 may generate a low-quality composite image 148-2 based on the encoding data 147. 149-2) can be generated.
제1 판별기(145)는 고품질 이미지(e.g. 148-2)에 대한 판별 동작을 수행할 수 있고, 제2 판별기(146)는 저품질 이미지(e.g. 149-2)에 대한 판별 동작을 수행할 수 있다. 제1 판별기(145)와 제1 생성기(143) 간에는 적대적 학습이 수행될 수 있고, 제2 판별기(146)와 제2 생성기(144) 간에도 적대적 학습이 수행될 수 있다.The first discriminator 145 can perform a discrimination operation on high-quality images (e.g. 148-2), and the second discriminator 146 can perform a discrimination operation on low-quality images (e.g. 149-2). there is. Adversarial learning may be performed between the first discriminator 145 and the first generator 143, and adversarial learning may also be performed between the second discriminator 146 and the second generator 144.
또한, 이미지의 품질 변환을 위해 도 14에 도시된 흐름에 따라 학습이 수행될 수 있다. 예를 들어, 저품질의 이미지(149-1)에 대한 인코딩 데이터(147)를 제1 생성기(143)에 입력하면, 저품질의 이미지(149-1)가 고품질의 합성 이미지(148-2)로 변환되도록 학습이 수행될 수 있다. 유사하게, 고품질의 이미지(148-1)에 대한 인코딩 데이터(147)를 제2 생성기(144)에 입력하면, 고품질의 이미지(148-1)가 저품질의 합성 이미지(149-2)로 변환되도록 학습이 수행될 수 있다. 구체적인 학습 방법과 관련해서는"UNIT; Unsupervised Image-to-Image Translation"으로 명명되는 문헌을 참조하도록 한다. 실제 이미지 변환 또한 도 14에 도시된 흐름에 따라 수행될 수 있다.Additionally, learning may be performed according to the flow shown in FIG. 14 to convert the quality of the image. For example, when encoding data 147 for a low-quality image 149-1 is input to the first generator 143, the low-quality image 149-1 is converted into a high-quality composite image 148-2. Learning can be carried out as much as possible. Similarly, when the encoding data 147 for the high-quality image 148-1 is input to the second generator 144, the high-quality image 148-1 is converted into a low-quality composite image 149-2. Learning can be performed. Regarding specific learning methods, please refer to the literature titled “UNIT; Unsupervised Image-to-Image Translation”. Actual image conversion can also be performed according to the flow shown in FIG. 14.
다시 도 12를 참조하여 설명한다.This will be described again with reference to FIG. 12.
단계 S122에서, 구축된 GAN 모델을 통해 언페어드 이미지셋의 원본 이미지가 다른 품질의 합성 이미지로 변환될 수 있다. 가령, 도 13을 다시 참조하면, 변환 시스템(10)은 제1 생성기(131)를 통해 고품질의 원본 이미지(e.g. 135-1)를 저품질의 합성 이미지(e.g. 135-2)로 변환할 수 있다. 또는, 변환 시스템(10)은 제2 생성기(132)를 통해 저품질의 원본 이미지(e.g. 136-1)를 고품질의 합성 이미지(e.g. 136-2)로 변환할 수도 있다.In step S122, the original image of the unpaired image set can be converted into a synthetic image of different quality through the constructed GAN model. For example, referring again to FIG. 13 , the conversion system 10 may convert a high-quality original image (e.g. 135-1) into a low-quality composite image (e.g. 135-2) through the first generator 131. Alternatively, the conversion system 10 may convert a low-quality original image (e.g. 136-1) into a high-quality composite image (e.g. 136-2) through the second generator 132.
단계 S123에서, 원본 이미지와 다른 품질의 합성 이미지가 페어로 구성될 수 있다. 가령, 변환 시스템(10)은 저품질의 원본 이미지와 고품질의 합성 이미지를 페어로 구성하고, 이러한 과정을 반복함으로써 언페어드 이미지셋을 페어드 이미지셋으로 변환할 수 있다. 또는, 변환 시스템(10)은 고품질의 원본 이미지와 저품질의 합성 이미지를 페어로 구성하고, 이러한 과정을 반복함으로써 언페어드 이미지셋을 페어드 이미지셋으로 변환할 수도 있다.In step S123, a composite image of different quality from the original image may be configured as a pair. For example, the conversion system 10 can convert an unpaired image set into a paired image set by pairing a low-quality original image and a high-quality composite image and repeating this process. Alternatively, the conversion system 10 may convert an unpaired image set into a paired image set by pairing a high-quality original image and a low-quality composite image and repeating this process.
보다 이해의 편의를 제공하기 위해, 도 15 및 도 16을 참조하여 부연 설명하도록 한다.In order to provide easier understanding, further explanation will be made with reference to FIGS. 15 and 16.
도 15 및 도 16은 GAN 모델(153)을 통해 언페어드 이미지셋(도 16의 161)으로부터 페어드 이미지셋(도 16의 162, 163)이 생성되는 것을 예시하고 있다. 또한, 앞선 예시와 동일하게, 언페어드 이미지셋(도 16의 161)을 구성하는 저품질의 이미지(151)가 저자장의 MR 이미지(e.g. 0.06T)이고, 고품질의 이미지(152)가 고자장의 MR 이미지(e.g. 1.5T)인 것을 예시하고 있다.Figures 15 and 16 illustrate that a paired image set (162, 163 in Figure 16) is generated from an unpaired image set (161 in Figure 16) through the GAN model 153. In addition, as in the previous example, the low-quality image 151 constituting the unpaired image set (161 in FIG. 16) is a low-field MR image (e.g. 0.06T), and the high-quality image 152 is a high-field MR image. (e.g. 1.5T).
도 15에 도시된 바와 같이, 학습된 GAN 모델(153)을 통해 저품질의 이미지(151)가 고품질의 MR 이미지(154)로 변환될 수 있다. 또는, 고품질의 이미지(152)가 저품질의 합성 이미지(155)로 변환될 수도 있다.As shown in FIG. 15, a low-quality image 151 can be converted into a high-quality MR image 154 through the learned GAN model 153. Alternatively, the high-quality image 152 may be converted into a low-quality composite image 155.
다음으로, 고품질의 합성 이미지(154)와 저품질의 원본 이미지(151)가 페어로 구성될 수 있고, 이러한 과정이 반복됨에 따라, 도 16에 도시된 바와 같이, 언페어드 이미지셋(161)으로부터 제1 페어드 이미지셋(162)이 생성될 수 있다. 또는, 저품질의 합성 이미지(155)와 고품질의 원본 이미지(152)가 페어로 구성될 수 있고, 이러한 과정이 반복됨에 따라, 도 16에 도시된 바와 같이, 언페어드 이미지셋(161)으로부터 제2 페어드 이미지셋(163)이 생성될 수 있다.Next, the high-quality composite image 154 and the low-quality original image 151 can be composed of a pair, and as this process is repeated, as shown in FIG. 16, the unpaired image set 161 is created. 1 Paired image set 162 may be created. Alternatively, the low-quality composite image 155 and the high-quality original image 152 may be composed of a pair, and as this process is repeated, a second image set from the unpaired image set 161 is obtained, as shown in FIG. 16. A paired image set 163 may be created.
지금까지 도 12 내지 도 16을 참조하여 본 개시의 다른 실시예에 따른 페어드 이미지셋 생성 방법에 대하여 설명하였다. 상술한 바에 따르면, 도메인 변환 능력을 구비한 GAN 모델을 이용하여 언페어드 이미지셋(e.g. 161)으로부터 페어드 이미지셋(e.g. 162, 163)이 생성될 수 있다. 이에 따라, 다중 도메인에 대한 페어드 이미지셋(e.g. 162, 163)이 용이하게 확보될 수 있고, 페어드 이미지셋(e.g. 162, 163) 확보에 소요되는 시간 비용 및 인적 비용이 크게 절감될 수 있다. 뿐만 아니라, 생성된 페어드 이미지셋(e.g. 162, 163)을 이용함으로써, 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델이 용이하게 구축될 수 있다.So far, a method for generating a paired image set according to another embodiment of the present disclosure has been described with reference to FIGS. 12 to 16. According to the above, a paired image set (e.g. 162, 163) can be created from an unpaired image set (e.g. 161) using a GAN model with domain transformation capability. Accordingly, paired image sets (e.g. 162, 163) for multiple domains can be easily secured, and the time and human costs required to secure paired image sets (e.g. 162, 163) can be greatly reduced. . In addition, by using the generated paired image sets (e.g. 162, 163), a high-performance deep learning model that accurately performs domain transformation can be easily built.
이하에서는, 도 17 내지 도 19를 참조하여 본 개시의 또 다른 실시예에 따른 페어드 이미지셋 생성 방법에 대하여 설명하도록 한다. 다만, 중복된 설명을 배제하기 위해, 앞선 실시예들과 중복되는 내용에 대한 설명은 생략하도록 한다.Hereinafter, a method of generating a paired image set according to another embodiment of the present disclosure will be described with reference to FIGS. 17 to 19. However, in order to exclude redundant descriptions, descriptions of content that overlaps with the previous embodiments will be omitted.
도 17은 본 개시의 또 다른 실시예에 따른 페어드 이미지셋 생성 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.Figure 17 is an example flowchart showing a method of generating a paired image set according to another embodiment of the present disclosure. However, this is only a preferred embodiment for achieving the purpose of the present disclosure, and of course, some steps may be added or deleted as needed.
도 17에 도시된 바와 같이, 본 실시예는 이미지 정합 기법과 GAN 모델을 함께 이용하여 페어드 이미지셋을 생성하는 방법에 관한 것이다.As shown in FIG. 17, this embodiment relates to a method of generating a paired image set using an image matching technique and a GAN model together.
구체적으로, 본 실시예는 저품질의 원본 이미지와 고품질의 원본 이미지를 정합하여 정합 이미지를 생성하는 단계 S171에서 시작될 수 있다. 본 단계에 대한 설명은 상술한 단계 S91의 설명 내용을 참조하도록 한다.Specifically, this embodiment may begin at step S171, where a low-quality original image and a high-quality original image are matched to generate a matched image. For a description of this step, refer to the description of step S91 described above.
단계 S172에서, 원본 이미지와 정합 이미지로 구성된 페어드 이미지셋을 이용하여 도메인 변환 능력을 구비한 GAN 모델이 구축될 수 있다. 가령, 변환 시스템(10)은 저품질의 원본 이미지와 고품질의 정합 이미지로 구성된 페어드 이미지셋을 이용하여 GAN 모델을 구축할 수 있고, 고품질의 원본 이미지와 저품질의 정합 이미지로 구성된 페어드 이미지셋을 이용하여 GAN 모델을 구축할 수도 있다. 페어드 이미지셋을 이용하므로, 보다 고성능의 GAN 모델이 구축될 수 있다. 본 단계에서, GAN 모델은 언페어드 이미지셋 및/또는 페어드 이미지셋을 학습하여 도메인 변환 능력을 갖출 수 있는 모델을 의미하고, 이러한 모델의 예로는 Cycle-GAN, UNIT, MUNIT, Star-GAN 등을 들 수 있다. 그러나, 본 개시의 범위가 이에 한정되는 것은 아니다. 본 단계에 대한 설명은 상술한 단계 S121의 설명 내용을 참조하도록 한다.In step S172, a GAN model with domain transformation capability can be built using a paired image set consisting of an original image and a matched image. For example, the conversion system 10 can build a GAN model using a paired image set composed of a low-quality original image and a high-quality registered image, and a paired image set composed of a high-quality original image and a low-quality registered image. You can also build a GAN model using it. By using paired image sets, a more high-performance GAN model can be built. At this stage, the GAN model refers to a model that can acquire domain transformation capabilities by learning unpaired image sets and/or paired image sets. Examples of such models include Cycle-GAN, UNIT, MUNIT, Star-GAN, etc. can be mentioned. However, the scope of the present disclosure is not limited thereto. For a description of this step, refer to the description of step S121 described above.
단계 S173에서, 구축된 GAN 모델을 통해 원본 이미지(또는 정합 이미지)가 다른 품질의 합성 이미지로 변환될 수 있다. 가령, 변환 시스템(10)은 저품질의 원본 이미지(또는 정합 이미지)를 고품질의 합성 이미지로 변환할 수 있다. 또는, 변환 시스템(10)은 고품질의 원본 이미지(또는 정합 이미지)를 저품질의 합성 이미지로 변환할 수도 있다.In step S173, the original image (or registered image) may be converted into a synthetic image of different quality through the constructed GAN model. For example, the conversion system 10 may convert a low-quality original image (or registered image) into a high-quality composite image. Alternatively, the conversion system 10 may convert a high-quality original image (or registered image) into a low-quality composite image.
단계 S174에서, 원본 이미지(또는 정합 이미지)와 다른 품질의 합성 이미지가 페어로 구성될 수 있다. 가령, 변환 시스템(10)은 저품질의 원본 이미지(또는 정합 이미지)와 고품질의 합성 이미지를 페어(e.g. 저품질의 원본 이미지와 고품질의 합성 이미지 또는 저품질의 정합 이미지와 고품질의 합성 이미지)로 구성할 수 있다. 또는, 변환 시스템(10)은 저품질의 합성 이미지와 고품질의 원본 이미지(또는 정합 이미지)를 페어(e.g. 저품질의 합성 이미지와 고품질의 원본 이미지 또는 저품질의 합성 이미지와 고품질의 정합 이미지)로 구성할 수도 있다. 또한, 변환 시스템(10)은 원본 이미지와 다른 품질의 정합 이미지도 페어(e.g. 저품질의 원본 이미지와 고품질의 정합 이미지 또는 저품질의 정합 이미지와 고품질의 원본 이미지)로 구성할 수 있다(단계 S171 및 S172 참조).In step S174, a composite image of different quality from the original image (or registered image) may be configured as a pair. For example, the conversion system 10 may configure a low-quality original image (or registered image) and a high-quality composite image as a pair (e.g. a low-quality original image and a high-quality composite image or a low-quality registered image and a high-quality composite image). there is. Alternatively, the conversion system 10 may configure a low-quality composite image and a high-quality original image (or registered image) as a pair (e.g. a low-quality composite image and a high-quality original image or a low-quality composite image and a high-quality registered image). there is. Additionally, the conversion system 10 may also configure a registered image of a different quality from the original image into a pair (e.g. a low-quality original image and a high-quality registered image, or a low-quality registered image and a high-quality original image) (steps S171 and S172). reference).
보다 이해의 편의를 제공하기 위해, 도 18 및 도 19를 참조하여 부연 설명하도록 한다.In order to provide easier understanding, further explanation will be made with reference to FIGS. 18 and 19.
도 18 및 도 19는 GAN 모델(183)을 통해 저품질의 원본 이미지와 고품질의 정합 이미지로 구성된 제1 페어드 이미지셋(도 19의 191)으로부터 제2 및 제3 페어드 이미지셋(도 19의 192 및 193)이 생성되는 것을 예시하고 있다. 또한, 앞선 예시와 동일하게, 페어드 이미지셋(도 19의 191)을 구성하는 저품질의 이미지(181)가 저자장의 MR 이미지(e.g. 0.06T)이고, 고품질의 이미지(184)가 고자장의 정합 MR 이미지(e.g. 1.5T)인 것을 예시하고 있다.Figures 18 and 19 show the second and third paired image sets (Figure 19) from the first paired image set (191 in Figure 19) consisting of a low-quality original image and a high-quality matched image through the GAN model 183. 192 and 193) are examples of being created. In addition, as in the previous example, the low-quality image 181 constituting the paired image set (191 in FIG. 19) is a low-field MR image (e.g. 0.06T), and the high-quality image 184 is a high-magnetic field matched MR image. This is an example of an image (e.g. 1.5T).
도 18에 도시된 바와 같이, 학습된 GAN 모델(183)을 통해 저품질의 원본 이미지(181)가 고품질의 합성 이미지(182)로 변환될 수 있다. 또는, 고품질의 정합 이미지(184)가 저품질의 합성 이미지(185)로 변환될 수도 있다.As shown in FIG. 18, a low-quality original image 181 can be converted into a high-quality synthetic image 182 through the learned GAN model 183. Alternatively, the high-quality registered image 184 may be converted into a low-quality composite image 185.
다음으로, 저품질의 원본 이미지(181)와 고품질의 합성 이미지(182)가 페어로 구성될 수 있고, 이러한 과정이 반복됨에 따라, 도 19에 도시된 바와 같이, 제1 페어드 이미지셋(191)으로부터 제2 페어드 이미지셋(192)이 생성될 수 있다. 또는, 저품질의 합성 이미지(185)와 고품질의 정합 이미지(184)가 페어로 구성될 수 있고, 이러한 과정이 반복됨에 따라, 도 19에 도시된 바와 같이, 제1 페어드 이미지셋(191)으로부터 제3 페어드 이미지셋(193)이 생성될 수 있다.Next, the low-quality original image 181 and the high-quality composite image 182 may be composed of a pair, and as this process is repeated, as shown in FIG. 19, the first paired image set 191 The second paired image set 192 can be generated from. Alternatively, the low-quality composite image 185 and the high-quality matched image 184 may be composed of a pair, and as this process is repeated, as shown in FIG. 19, from the first paired image set 191 A third paired image set 193 may be created.
지금까지 도 17 내지 도 19를 참조하여 본 개시의 또 다른 실시예에 따른 페어드 이미지셋 생성 방법에 대하여 설명하였다. 상술한 바에 따르면, 이미지 정합 기법과 도메인 변환 능력을 구비한 GAN 모델을 이용하여 언페어드 이미지셋으로부터 양질의 페어드 이미지셋(e.g. 191 내지 193)이 생성될 수 있다. 이에 따라, 적은 비용으로 다중 도메인에 대한 양질의 페어드 이미지셋(e.g. 191 내지 193)이 확보될 수 있고, 결과적으로 도메인 변환을 정확하게 수행하는 고성능의 딥러닝 모델이 더욱 용이하게 구축될 수 있다.So far, a method for generating a paired image set according to another embodiment of the present disclosure has been described with reference to FIGS. 17 to 19. According to the above, a high-quality paired image set (e.g. 191 to 193) can be generated from an unpaired image set using a GAN model equipped with an image matching technique and domain transformation capability. Accordingly, high-quality paired image sets (e.g. 191 to 193) for multiple domains can be secured at a low cost, and as a result, a high-performance deep learning model that accurately performs domain conversion can be more easily built.
이하에서는, 도 20을 참조하여 본 개시의 몇몇 실시예들에 따른 변환 시스템(10)을 구현할 수 있는 예시적인 컴퓨팅 장치(200)에 대하여 설명하도록 한다.Hereinafter, an exemplary computing device 200 capable of implementing the conversion system 10 according to some embodiments of the present disclosure will be described with reference to FIG. 20.
도 20은 컴퓨팅 장치(200)를 나타내는 예시적인 하드웨어 구성도이다.FIG. 20 is an exemplary hardware configuration diagram showing the computing device 200.
도 20에 도시된 바와 같이, 컴퓨팅 장치(200)는 하나 이상의 프로세서(201), 버스(203), 통신 인터페이스(204), 프로세서(201)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(202)와, 컴퓨터 프로그램(206)을 저장하는 스토리지(205)를 포함할 수 있다. 다만, 도 20에는 본 개시의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 20에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 더 포함될 수 있음을 알 수 있다. 즉, 컴퓨팅 장치(200)에는, 도 20에 도시된 구성요소 이외에도 다양한 구성요소가 더 포함될 수 있다. 경우에 따라, 컴퓨팅 장치(200)는 도 20에 도시된 구성요소 중 일부가 생략된 형태로 구현될 수도 있다.As shown in FIG. 20, the computing device 200 includes one or more processors 201, a bus 203, a communication interface 204, and a memory (loading) a computer program executed by the processor 201. 202) and a storage 205 that stores a computer program 206. However, only components related to the embodiment of the present disclosure are shown in FIG. 20. Accordingly, a person skilled in the art to which this disclosure pertains can recognize that other general-purpose components may be included in addition to the components shown in FIG. 20 . That is, the computing device 200 may further include various components in addition to those shown in FIG. 20 . In some cases, the computing device 200 may be implemented with some of the components shown in FIG. 20 omitted.
프로세서(201)는 컴퓨팅 장치(200)의 각 구성의 전반적인 동작을 제어할 수 있다. 프로세서(201)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서 중 적어도 하나를 포함하여 구성될 수 있다. 또한, 프로세서(201)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(200)는 하나 이상의 프로세서를 구비할 수 있다.The processor 201 may control the overall operation of each component of the computing device 200. The processor 201 includes at least one of a Central Processing Unit (CPU), Micro Processor Unit (MPU), Micro Controller Unit (MCU), Graphic Processing Unit (GPU), or any type of processor well known in the art of the present disclosure. It can be configured to include. Additionally, the processor 201 may perform operations on at least one application or program to execute methods/operations according to various embodiments of the present disclosure. Computing device 200 may include one or more processors.
다음으로, 메모리(202)는 각종 데이터, 명령 및/또는 정보를 저장할 수 있다. 메모리(202)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위하여 스토리지(205)로부터 하나 이상의 프로그램(206)을 로드할 수 있다. 메모리(202)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위는 이에 한정되지 않는다.Next, memory 202 may store various data, instructions and/or information. Memory 202 may load one or more programs 206 from storage 205 to execute methods/operations according to various embodiments of the present disclosure. The memory 202 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.
다음으로, 버스(203)는 컴퓨팅 장치(200)의 구성요소 간 통신 기능을 제공할 수 있다. 버스(203)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.Next, the bus 203 may provide communication functionality between components of the computing device 200. The bus 203 may be implemented as various types of buses, such as an address bus, a data bus, and a control bus.
다음으로, 통신 인터페이스(204)는 컴퓨팅 장치(200)의 유무선 인터넷 통신을 지원할 수 있다. 또한, 통신 인터페이스(204)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(204)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.Next, the communication interface 204 may support wired and wireless Internet communication of the computing device 200. Additionally, the communication interface 204 may support various communication methods other than Internet communication. To this end, the communication interface 204 may be configured to include a communication module well known in the technical field of the present disclosure.
다음으로, 스토리지(205)는 하나 이상의 컴퓨터 프로그램(206)을 비임시적으로 저장할 수 있다. 스토리지(205)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.Next, storage 205 may non-transitory store one or more computer programs 206. The storage 205 may be a non-volatile memory such as Read Only Memory (ROM), Erasable Programmable ROM (EPROM), Electrically Erasable Programmable ROM (EEPROM), flash memory, a hard disk, a removable disk, or a device well known in the art to which this disclosure pertains. It may be configured to include any known type of computer-readable recording medium.
컴퓨터 프로그램(206)은 메모리(202)에 로드될 때 프로세서(201)로 하여금 본 개시의 다양한 실시예들에 따른 방법/동작을 수행하도록 하는 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 즉, 프로세서(201)는 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다. 여기서, 인스트럭션은 기능을 기준으로 묶인 일련의 컴퓨터 판독가능 명령어들로서 컴퓨터 프로그램의 구성요소이자 프로세서에 의해 실행되는 것을 가리킨다.The computer program 206 may include one or more instructions that, when loaded into the memory 202, cause the processor 201 to perform methods/operations according to various embodiments of the present disclosure. That is, the processor 201 may perform methods/operations according to various embodiments of the present disclosure by executing one or more instructions. Here, instructions are a series of computer-readable instructions grouped based on function and are a component of a computer program and are executed by a processor.
예를 들어, 컴퓨터 프로그램(206)은 제1 도메인의 이미지(e.g. 저품질의 이미지)와 제2 도메인의 이미지(e.g. 고품질의 이미지)를 포함하는 언페어드 이미지셋을 획득하는 동작, 획득된 언페어드 이미지셋으로부터 페어드 이미지셋을 생성하는 동작 및 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 도메인 변환(e.g. 품질 변환)을 수행하는 딥러닝 모델을 구축하는 동작을 수행하도록 하는 인스트럭션들을 포함할 수 있다. 이와 같은 경우, 컴퓨팅 장치(200)를 통해 본 개시의 몇몇 실시예들에 따른 변환 시스템(10)이 구현될 수 있다.For example, the computer program 206 may perform an operation of acquiring an unpaired image set including an image of a first domain (e.g. a low-quality image) and an image of a second domain (e.g. a high-quality image), the obtained unpaired image It may include instructions for creating a paired image set from a set and constructing a deep learning model that performs domain conversion (e.g. quality conversion) on the input image using the generated paired image set. there is. In this case, the conversion system 10 according to some embodiments of the present disclosure may be implemented through the computing device 200.
지금까지 도 20을 참조하여 본 개시의 몇몇 실시예들에 따른 변환 시스템(10)을 구현할 수 있는 예시적인 컴퓨팅 장치(200)에 대하여 설명하였다.So far, an exemplary computing device 200 capable of implementing the conversion system 10 according to some embodiments of the present disclosure has been described with reference to FIG. 20.
지금까지 도 1 내지 도 20을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present disclosure and effects according to the embodiments have been mentioned with reference to FIGS. 1 to 20. The effects according to the technical idea of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below.
지금까지 도 1 내지 도 20을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present disclosure described so far with reference to FIGS. 1 to 20 may be implemented as computer-readable code on a computer-readable medium. The computer-readable recording medium may be, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). You can. The computer program recorded on the computer-readable recording medium can be transmitted to another computing device through a network such as the Internet, installed on the other computing device, and thus used on the other computing device.
이상에서, 본 개시의 실시예를 구성하는 모든 구성요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even though all the components constituting the embodiments of the present disclosure have been described as being combined or operated in combination, the technical idea of the present disclosure is not necessarily limited to these embodiments. That is, within the scope of the purpose of the present disclosure, all of the components may be operated by selectively combining one or more of them.
도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although operations are shown in the drawings in a specific order, it should not be understood that the operations must be performed in the specific order shown or sequential order or that all illustrated operations must be performed to obtain the desired results. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the embodiments described above should not be construed as necessarily requiring such separation, and the program components and systems described may generally be integrated together into a single software product or packaged into multiple software products. You must understand that it exists.
이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although embodiments of the present disclosure have been described above with reference to the attached drawings, those skilled in the art will understand that the present disclosure can be implemented in other specific forms without changing the technical idea or essential features. I can understand that there is. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. The scope of protection of this disclosure should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of rights of the technical ideas defined by this disclosure.

Claims (22)

  1. 적어도 하나의 컴퓨팅 장치에 의해 수행되는 방법으로서,A method performed by at least one computing device, comprising:
    제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 단계 - 상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고품질의 이미지임 - ;Obtaining an unpaired image set including an image of a first domain and an image of a second domain, wherein the image of the second domain is a higher quality image than the image of the first domain;
    상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 단계; 및generating a paired image set from the obtained unpaired image set; and
    상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 품질 변환을 수행하는 딥러닝 모델을 구축하는 단계를 포함하는,Comprising the step of building a deep learning model that performs quality conversion on the input image using the generated paired image set,
    이미지 변환 방법.How to convert images.
  2. 제1항에 있어서,According to paragraph 1,
    상기 언페어드 이미지셋은 MR(Magnetic Resonance) 이미지셋이고,The unpaired image set is an MR (Magnetic Resonance) image set,
    상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고자장(high-field)의 MR 이미지인,The image of the second domain is a higher-field MR image than the image of the first domain,
    이미지 변환 방법.How to convert images.
  3. 제1항에 있어서,According to paragraph 1,
    상기 페어드 이미지셋을 생성하는 단계는,The step of generating the paired image set is,
    상기 제1 도메인의 이미지와 상기 제2 도메인의 이미지를 정합함으로써, 상기 페어드 이미지셋을 생성하는 단계를 포함하는,Comprising the step of generating the paired image set by matching the image of the first domain and the image of the second domain,
    이미지 변환 방법.How to convert images.
  4. 제3항에 있어서,According to paragraph 3,
    상기 제1 도메인의 이미지와 상기 제2 도메인의 이미지 간의 정합은 변형 정합(deformable registration) 기법을 통해 수행되는,Registration between the image of the first domain and the image of the second domain is performed through a deformable registration technique,
    이미지 변환 방법.How to convert images.
  5. 제1항에 있어서,According to paragraph 1,
    상기 페어드 이미지셋을 생성하는 단계는,The step of generating the paired image set is,
    도메인 변환(domain translation) 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 이용하여, 상기 제1 도메인의 이미지를 상기 제2 도메인의 합성 이미지(synthetic image)로 변환하는 단계; 및Converting the image of the first domain into a synthetic image of the second domain using a Generative Adversarial Networks (GAN) model with domain translation capabilities; and
    상기 제1 도메인의 이미지와 상기 제2 도메인의 합성 이미지를 페어(pair)로 구성하는 단계를 포함하는,Comprising the step of configuring the image of the first domain and the composite image of the second domain as a pair,
    이미지 변환 방법.How to convert images.
  6. 제5항에 있어서,According to clause 5,
    상기 GAN 모델은 Cycle-GAN 모델인,The GAN model is a Cycle-GAN model,
    이미지 변환 방법.How to convert images.
  7. 제1항에 있어서,According to paragraph 1,
    상기 페어드 이미지셋을 생성하는 단계는,The step of generating the paired image set is,
    도메인 변환(domain translation) 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 이용하여, 상기 제2 도메인의 이미지를 상기 제1 도메인의 합성 이미지(synthetic image)로 변환하는 단계; 및Converting the image of the second domain into a synthetic image of the first domain using a Generative Adversarial Networks (GAN) model with domain translation capabilities; and
    상기 제2 도메인의 이미지와 상기 제1 도메인의 합성 이미지를 페어(pair)로 구성하는 단계를 포함하는,Comprising the step of configuring the image of the second domain and the composite image of the first domain as a pair,
    이미지 변환 방법.How to convert images.
  8. 제1항에 있어서,According to paragraph 1,
    상기 페어드 이미지셋을 생성하는 단계는,The step of generating the paired image set is,
    상기 제1 도메인의 이미지와 상기 제2 도메인의 이미지를 정합하여, 정합 이미지를 생성하는 단계;generating a matched image by matching the image of the first domain and the image of the second domain;
    상기 언페어드 이미지셋의 적어도 일부와 상기 생성된 정합 이미지를 학습하여, 도메인 변환 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 구축하는 단계; 및Constructing a Generative Adversarial Networks (GAN) model with domain transformation capability by learning at least a portion of the unpaired image set and the generated matched image; and
    상기 구축된 GAN 모델을 이용하여 상기 페어드 이미지셋의 적어도 일부를 생성하는 단계를 포함하는,Including generating at least a portion of the paired image set using the constructed GAN model,
    이미지 변환 방법.How to convert images.
  9. 제8항에 있어서,According to clause 8,
    상기 생성된 정합 이미지는 상기 제2 도메인에 속한 이미지이고,The generated matched image is an image belonging to the second domain,
    상기 페어드 이미지셋을 생성하는 단계는,The step of generating the paired image set is,
    상기 제1 도메인의 이미지와 상기 생성된 정합 이미지를 페어(pair)로 구성하는 단계를 더 포함하는,Further comprising configuring the image of the first domain and the generated matched image as a pair,
    이미지 변환 방법.How to convert images.
  10. 제8항에 있어서,According to clause 8,
    상기 생성된 정합 이미지는 상기 제2 도메인에 속한 이미지이고,The generated matched image is an image belonging to the second domain,
    상기 GAN 모델은 상기 제1 도메인의 이미지와 상기 생성된 정합 이미지를 학습함으로써 구축된 것이며,The GAN model is constructed by learning the image of the first domain and the generated matched image,
    상기 페어드 이미지셋의 적어도 일부를 생성하는 단계는,The step of generating at least a portion of the paired image set includes:
    상기 구축된 GAN 모델을 통해 상기 제1 도메인의 이미지를 상기 제2 도메인의 합성 이미지(synthetic image)로 변환하는 단계; 및Converting the image of the first domain into a synthetic image of the second domain through the constructed GAN model; and
    상기 제1 도메인의 이미지와 상기 제2 도메인의 합성 이미지를 페어(pair)로 구성하는 단계를 포함하는,Comprising the step of configuring the image of the first domain and the composite image of the second domain as a pair,
    이미지 변환 방법.How to convert images.
  11. 제10항에 있어서,According to clause 10,
    상기 페어로 구성하는 단계를 더 포함하는,Further comprising the step of configuring the pair,
    상기 제1 도메인의 이미지와 상기 제2 도메인의 합성 이미지 간의 상관계수가 기준치 이상이라는 판정에 응답하여, 두 이미지를 페어로 구성하는 단계를 포함하는,In response to determining that the correlation coefficient between the image of the first domain and the composite image of the second domain is greater than or equal to a reference value, comprising configuring the two images as a pair,
    이미지 변환 방법.How to convert images.
  12. 제8항에 있어서,According to clause 8,
    상기 생성된 정합 이미지는 상기 제2 도메인에 속한 이미지이고,The generated matched image is an image belonging to the second domain,
    상기 GAN 모델은 상기 제1 도메인의 이미지와 상기 생성된 정합 이미지를 학습함으로써 구축된 것이며,The GAN model is constructed by learning the image of the first domain and the generated matched image,
    상기 페어드 이미지셋의 적어도 일부를 생성하는 단계는,The step of generating at least a portion of the paired image set includes:
    상기 구축된 GAN 모델을 통해 상기 정합 이미지 또는 상기 제2 도메인의 이미지를 상기 제1 도메인의 합성 이미지(synthetic image)로 변환하는 단계; 및Converting the registered image or the image of the second domain into a synthetic image of the first domain through the constructed GAN model; and
    상기 제1 도메인의 합성 이미지와, 상기 제2 도메인의 이미지 또는 상기 정합 이미지를 페어(pair)로 구성하는 단계를 포함하는,Comprising the step of configuring the composite image of the first domain and the image of the second domain or the matched image as a pair,
    이미지 변환 방법.How to convert images.
  13. 제8항에 있어서,According to clause 8,
    상기 생성된 정합 이미지는 상기 제1 도메인에 속한 이미지이고,The generated matched image is an image belonging to the first domain,
    상기 GAN 모델은 상기 제2 도메인의 이미지와 상기 생성된 정합 이미지를 학습함으로써 구축된 것이며,The GAN model is constructed by learning the image of the second domain and the generated matched image,
    상기 페어드 이미지셋의 적어도 일부를 생성하는 단계는,The step of generating at least a portion of the paired image set includes:
    상기 구축된 GAN 모델을 통해 상기 제1 도메인의 이미지 또는 상기 정합 이미지를 상기 제2 도메인의 합성 이미지(synthetic image)로 변환하는 단계; 및Converting the image of the first domain or the registered image into a synthetic image of the second domain through the constructed GAN model; and
    상기 제1 도메인의 이미지 또는 상기 정합 이미지와, 상기 제2 도메인의 합성 이미지를 페어(pair)로 구성하는 단계를 포함하는,Comprising the step of configuring the image or the matched image of the first domain and the composite image of the second domain as a pair,
    이미지 변환 방법.How to convert images.
  14. 제1항에 있어서,According to paragraph 1,
    상기 구축된 딥러닝 모델을 이용하여 제1 이미지를 상기 제1 이미지보다 고품질의 제2 이미지로 변환하는 단계를 더 포함하는,Further comprising converting the first image into a second image of higher quality than the first image using the constructed deep learning model,
    이미지 변환 방법.How to convert images.
  15. 제14항에 있어서,According to clause 14,
    지정된 평가 메트릭을 이용하여 상기 제2 이미지의 품질을 평가하는 단계를 더 포함하되,Further comprising evaluating the quality of the second image using a designated evaluation metric,
    상기 지정된 평가 메트릭은,The evaluation metrics specified above are:
    상기 제1 이미지와 상기 제2 이미지와의 상관계수,Correlation coefficient between the first image and the second image,
    상기 제1 이미지와 상기 제2 이미지의 신호대잡음비(Signal-to-Noise Ratio) 차이 및Signal-to-noise ratio difference between the first image and the second image, and
    상기 제1 이미지와 상기 제2 이미지의 픽셀 강도(pixel intensity) 차이를 포함하는,Including the difference in pixel intensity between the first image and the second image,
    이미지 변환 방법.How to convert images.
  16. 제14항에 있어서,According to clause 14,
    상기 제1 이미지는 피진단자의 MR(Magnetic Resonance) 이미지이고,The first image is an MR (Magnetic Resonance) image of the diagnosed terminal,
    MR 이미지를 CT(Computer Tomography) 이미지로 변환하도록 학습된 다른 딥러닝 모델을 이용하여, 상기 제2 이미지를 CT 이미지로 변환하는 단계를 더 포함하는,Converting the second image into a CT image using another deep learning model learned to convert an MR image into a CT (Computer Tomography) image,
    이미지 변환 방법.How to convert images.
  17. 제1항에 있어서,According to paragraph 1,
    상기 딥러닝 모델은 인코더 및 디코더를 포함하고,The deep learning model includes an encoder and a decoder,
    상기 인코더는 입력된 이미지로부터 서로 다른 추상화 레벨의 특징 데이터를 추출하는 복수개의 인코딩 블록들을 포함하며,The encoder includes a plurality of encoding blocks that extract feature data of different abstraction levels from the input image,
    상기 디코더는 상기 복수개의 인코딩 블록들에 대응되는 복수개의 디코딩 블록들을 포함하되,The decoder includes a plurality of decoding blocks corresponding to the plurality of encoding blocks,
    상기 복수개의 인코딩 블록들과 상기 복수개의 디코딩 블록들 간에는 상기 추출된 특징 데이터를 전달하는 스킵-커넥션(skip-connection)이 형성되어 있는,A skip-connection is formed between the plurality of encoding blocks and the plurality of decoding blocks to transmit the extracted feature data,
    이미지 변환 방법.How to convert images.
  18. 적어도 하나의 컴퓨팅 장치에 의해 수행되는 방법으로서,A method performed by at least one computing device, comprising:
    피진단자에 대한 제1 MR(Magnetic Resonance) 이미지를 획득하는 단계;Obtaining a first MR (Magnetic Resonance) image for the terminal being diagnosed;
    제1 딥러닝 모델을 통해 상기 제1 MR 이미지를 제2 MR 이미지로 변환하는 단계 - 상기 제2 MR 이미지는 상기 제1 MR 이미지보다 고품질의 이미지임 - ; 및Converting the first MR image into a second MR image through a first deep learning model, where the second MR image is a higher quality image than the first MR image; and
    제2 딥러닝 모델을 통해 상기 제2 MR 이미지를 CT(Computed Tomography) 이미지로 변환하는 단계를 포함하는,Including converting the second MR image into a CT (Computed Tomography) image through a second deep learning model,
    이미지 변환 방법.How to convert images.
  19. 제18항에 있어서,According to clause 18,
    상기 CT 이미지로 변환하는 단계는,The step of converting to the CT image is,
    지정된 평가 메트릭을 이용하여 상기 제2 MR 이미지의 품질을 평가하는 단계; 및evaluating the quality of the second MR image using a designated evaluation metric; and
    상기 평가된 품질이 소정의 조건을 만족한다는 판정에 응답하여, 상기 제2 MR 이미지를 상기 CT 이미지로 변환하는 단계를 포함하고,In response to determining that the evaluated quality satisfies a predetermined condition, converting the second MR image into the CT image,
    상기 지정된 평가 메트릭은,The evaluation metrics specified above are:
    상기 제1 MR 이미지와 상기 제2 MR 이미지와의 상관계수,Correlation coefficient between the first MR image and the second MR image,
    상기 제1 MR 이미지와 상기 제2 MR 이미지의 신호대잡음비(Signal-to-Noise Ratio) 차이 및Signal-to-noise ratio difference between the first MR image and the second MR image, and
    상기 제1 MR 이미지와 상기 제2 MR 이미지의 신호 강도(signal intensity) 차이를 포함하는,Including a difference in signal intensity between the first MR image and the second MR image,
    이미지 변환 방법.How to convert images.
  20. 제18항에 있어서,According to clause 18,
    상기 제1 딥러닝 모델은 페어드(paired) 이미지셋을 이용하여 구축된 것이고,The first deep learning model was built using a paired image set,
    상기 페어드 이미지셋은 도메인 변환(domain translation) 능력을 구비한 GAN(Generative Adversarial Networks) 모델을 이용하여, 언페어드(unpaired) 이미지셋으로부터 생성된 것이며,The paired image set is generated from an unpaired image set using a GAN (Generative Adversarial Networks) model with domain translation capability,
    상기 언페어드 이미지셋은 제1 도메인의 MR 이미지와 제2 도메인의 MR 이미지를 포함하되,The unpaired image set includes an MR image of a first domain and an MR image of a second domain,
    상기 제2 도메인의 MR 이미지는 상기 제1 도메인의 MR 이미지보다 고품질의 이미지인,The MR image of the second domain is a higher quality image than the MR image of the first domain,
    이미지 변환 방법.How to convert images.
  21. 하나 이상의 프로세서; 및One or more processors; and
    하나 이상의 인스트럭션을 저장하는 메모리를 포함하고,Includes memory for storing one or more instructions,
    상기 하나 이상의 프로세서는,The one or more processors:
    상기 저장된 하나 이상의 인스트럭션을 실행함으로써,By executing one or more instructions stored above,
    제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 동작 - 상기 제2 도메인의 이미지는 상기 제1 도메인의 이미지보다 고품질의 이미지임 - ,An operation of acquiring an unpaired image set including an image of a first domain and an image of a second domain, wherein the image of the second domain is a higher quality image than the image of the first domain.
    상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 동작 및An operation of generating a paired image set from the obtained unpaired image set, and
    상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 품질 변환을 수행하는 딥러닝 모델을 구축하는 동작을 수행하는,Performing an operation to build a deep learning model that performs quality conversion on the input image using the generated paired image set,
    이미지 변환 시스템.Image conversion system.
  22. 적어도 하나의 컴퓨팅 장치에 의해 수행되는 방법으로서,A method performed by at least one computing device, comprising:
    제1 도메인의 이미지와 제2 도메인의 이미지를 포함하는 언페어드(unpaired) 이미지셋을 획득하는 단계;Obtaining an unpaired image set including an image of a first domain and an image of a second domain;
    상기 획득된 언페어드 이미지셋으로부터 페어드(paired) 이미지셋을 생성하는 단계; 및generating a paired image set from the obtained unpaired image set; and
    상기 생성된 페어드 이미지셋을 이용하여 입력 이미지에 대한 도메인 변환을 수행하는 딥러닝 모델을 구축하는 단계를 포함하는,Comprising the step of building a deep learning model that performs domain transformation on the input image using the generated paired image set,
    이미지 변환 방법.How to convert images.
PCT/KR2022/006685 2022-04-22 2022-05-10 Deep learning-based image conversion method and system therefor WO2023204342A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0050339 2022-04-22
KR1020220050339A KR20230151146A (en) 2022-04-22 2022-04-22 Method for transforming image based on deep-learning and system thereof

Publications (1)

Publication Number Publication Date
WO2023204342A1 true WO2023204342A1 (en) 2023-10-26

Family

ID=88420077

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/006685 WO2023204342A1 (en) 2022-04-22 2022-05-10 Deep learning-based image conversion method and system therefor

Country Status (2)

Country Link
KR (1) KR20230151146A (en)
WO (1) WO2023204342A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115534B1 (en) * 2019-10-14 2020-05-26 주식회사 루닛 Method for detecting anomaly using generative adversarial networks, apparatus and system thereof
KR102285348B1 (en) * 2020-01-28 2021-08-03 주식회사 클라리파이 Apparatus and method for image restoration of accelerated mri based on deep learning
KR102306658B1 (en) * 2019-12-24 2021-09-30 아주대학교산학협력단 Learning method and device of generative adversarial network for converting between heterogeneous domain data
KR102313662B1 (en) * 2020-12-30 2021-10-19 뉴로핏 주식회사 Device and method for determining quality of image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210147651A (en) 2020-05-29 2021-12-07 의료법인 이원의료재단 Method for generating medical data using gan and system thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102115534B1 (en) * 2019-10-14 2020-05-26 주식회사 루닛 Method for detecting anomaly using generative adversarial networks, apparatus and system thereof
KR102306658B1 (en) * 2019-12-24 2021-09-30 아주대학교산학협력단 Learning method and device of generative adversarial network for converting between heterogeneous domain data
KR102285348B1 (en) * 2020-01-28 2021-08-03 주식회사 클라리파이 Apparatus and method for image restoration of accelerated mri based on deep learning
KR102313662B1 (en) * 2020-12-30 2021-10-19 뉴로핏 주식회사 Device and method for determining quality of image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ONISHI YUSUKE; SHIMIZU IKUKO: "A method for Style-Based Domain Conversion by Generative Adversarial Network", 2021 IEEE 10TH GLOBAL CONFERENCE ON CONSUMER ELECTRONICS (GCCE), IEEE, 12 October 2021 (2021-10-12), pages 818 - 819, XP034035296, DOI: 10.1109/GCCE53005.2021.9622031 *
YOO DENIS, CHOI YUNI ANNETTE, RAH C. J., LEE ERIC, CAI JING, MIN BYUNG JUN, KIM EUN HO: "Signal Enhancement of Low Magnetic Field Magnetic Resonance Image Using a Conventional- and Cyclic-Generative Adversarial Network Models With Unpaired Image Sets", FRONTIERS IN ONCOLOGY, vol. 11, 11 May 2021 (2021-05-11), pages 660284, XP093101209, DOI: 10.3389/fonc.2021.660284 *

Also Published As

Publication number Publication date
KR20230151146A (en) 2023-11-01

Similar Documents

Publication Publication Date Title
WO2020197239A1 (en) Missing image data imputation method using neural network and apparatus therefor
WO2017022882A1 (en) Apparatus for classifying pathological diagnosis of medical image, and pathological diagnosis system using same
WO2020242239A1 (en) Artificial intelligence-based diagnosis support system using ensemble learning algorithm
WO2019132168A1 (en) System for learning surgical image data
WO2021049729A1 (en) Method for predicting likelihood of developing lung cancer by using artificial intelligence model, and analysis device therefor
WO2020080604A1 (en) Apparatus and method for deep learning-based ct image noise reduction
WO2019143177A1 (en) Method for reconstructing series of slice images and apparatus using same
WO2020139009A1 (en) Cerebrovascular disease learning device, cerebrovascular disease detection device, cerebrovascular disease learning method, and cerebrovascular disease detection method
WO2022149894A1 (en) Method for training artificial neural network providing determination result of pathological specimen, and computing system for performing same
WO2021060899A1 (en) Training method for specializing artificial intelligence model in institution for deployment, and apparatus for training artificial intelligence model
WO2019235828A1 (en) Two-face disease diagnosis system and method thereof
WO2017099375A1 (en) Image processing apparatus and image processing method thereof
WO2020071877A1 (en) System and method for searching for pathological image
WO2021137454A1 (en) Artificial intelligence-based method and system for analyzing user medical information
WO2022131642A1 (en) Apparatus and method for determining disease severity on basis of medical images
WO2020060196A1 (en) Apparatus and method for reconstructing three-dimensional image
WO2019143179A1 (en) Method for automatically detecting same regions of interest between images of same object taken with temporal interval, and apparatus using same
WO2024111915A1 (en) Method for converting medical images by means of artificial intelligence by using image quality conversion and device therefor
WO2019054711A1 (en) Deep learning based medical ultrasonic image classification method and apparatus using smart device
WO2023204342A1 (en) Deep learning-based image conversion method and system therefor
WO2021002669A1 (en) Apparatus and method for constructing integrated lesion learning model, and apparatus and method for diagnosing lesion by using integrated lesion learning model
WO2024111916A1 (en) Method for medical image conversion in frequency domain using artificial intelligence, and device thereof
WO2020138549A1 (en) Acoustic emission-based defect signal detection device and method
WO2024039043A1 (en) Learning data generation method, computer program and device
WO2023234622A1 (en) Image spatial normalization and normalization system and method using same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22938633

Country of ref document: EP

Kind code of ref document: A1