KR20220021368A - Tomography image processing method using neural network based on unsupervised learning to remove missing cone artifacts and apparatus therefor - Google Patents

Tomography image processing method using neural network based on unsupervised learning to remove missing cone artifacts and apparatus therefor Download PDF

Info

Publication number
KR20220021368A
KR20220021368A KR1020200162068A KR20200162068A KR20220021368A KR 20220021368 A KR20220021368 A KR 20220021368A KR 1020200162068 A KR1020200162068 A KR 1020200162068A KR 20200162068 A KR20200162068 A KR 20200162068A KR 20220021368 A KR20220021368 A KR 20220021368A
Authority
KR
South Korea
Prior art keywords
neural network
image
projection
projection image
artifact
Prior art date
Application number
KR1020200162068A
Other languages
Korean (ko)
Other versions
KR102591860B1 (en
Inventor
예종철
정형진
허재영
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20220021368A publication Critical patent/KR20220021368A/en
Application granted granted Critical
Publication of KR102591860B1 publication Critical patent/KR102591860B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/416Exact reconstruction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/421Filtered back projection [FBP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed are a method for processing a tomography image using neural network based on unsupervised learning for removing missing cone artifacts and a device thereof. According to an embodiment of the present invention, the method comprises: a step of receiving a tomography image; and a step of generating projection images from which the missing cone artifact is removed by removing the cone artifact missing from the tomography image using an unsupervised learning based neural network generated based on an optimal transport theory.

Description

누락된 원뿔 아티팩트를 제거하기 위한 비지도 학습 기반 뉴럴 네트워크를 이용한 단층촬영영상 처리 방법 및 그 장치 {TOMOGRAPHY IMAGE PROCESSING METHOD USING NEURAL NETWORK BASED ON UNSUPERVISED LEARNING TO REMOVE MISSING CONE ARTIFACTS AND APPARATUS THEREFOR}TOMOGRAPHY IMAGE PROCESSING METHOD USING NEURAL NETWORK BASED ON UNSUPERVISED LEARNING TO REMOVE MISSING CONE ARTIFACTS AND APPARATUS THEREFOR}

본 발명은 비지도 학습 기반 뉴럴 네트워크를 이용한 단층촬영영상 처리 기술에 관한 것으로, 보다 구체적으로는 비지도 학습 기반의 뉴럴 네트워크를 이용하여 단층촬영영상의 누락된 원뿔 아티팩트(missing cone artifacts)를 제거함으로써, 고화질의 단층촬영영상을 생성할 수 있는 단층촬영영상 처리 방법 및 그 장치에 관한 것이다.The present invention relates to a tomography image processing technology using an unsupervised learning-based neural network, and more particularly, by removing missing cone artifacts from a tomographic image using an unsupervised learning-based neural network. , to a tomography image processing method capable of generating high-quality tomographic images, and an apparatus therefor.

광학회절 단층촬영(ODT; Optical diffraction tomography)은 3차원 굴절률(RI; refractive index) 분포를 재구성하는 기법이다. 여기서, 굴절률(RI), n은 광물질 상호작용(light-matter interaction)을 나타내는 전기 자화율(electro-susceptibility) 및 자기 자화율(magnetic-susceptibility)(각각 Xe 및 Xm)과 관련된 광학적 특성으로, 아래 <수학식 1>과 같이 나타낼 수 있다.Optical diffraction tomography (ODT) is a technique for reconstructing a three-dimensional refractive index (RI) distribution. Here, refractive index (RI), n is an optical property related to electro-susceptibility and magnetic-susceptibility (X e and X m , respectively) representing light-matter interaction, below It can be expressed as <Equation 1>.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

광물질 상호작용은 전자분포와 밀도에 따라 달라지기 때문에 RI는 물질마다 값이 다르다. 따라서, RI 분포를 재구성함으로써 ODT는 셀의 구조뿐만 아니라 건조 질량(dry mass)이나 화학 정보 같은 셀의 상태도 제공한다.Since the mineral interaction depends on the electron distribution and density, the RI value is different for each material. Thus, by reconstructing the RI distribution, ODT provides not only the structure of the cell, but also the state of the cell, such as dry mass or chemical information.

그럼에도 불구하고 ODT에는 여전히 기술적 난제가 남아 있다. 특히 잘 알려진 누락된 원뿔 문제는 제한된 각도 내에서만 산란 필드를 측정할 수 있는 실용적인 ODT 계측기에서 비롯된다. 그 결과 원뿔 모양의 각도 영역에서 푸리에(Fourier) 성분이 누락되어 RI 값의 정량화를 어렵게 만드는 이미지 왜곡이 발생한다. 더욱이 최근의 최첨단 시스템은 극히 희소(sparse) 뷰 샘플링 예를 들어, 49뷰를 가진 원형 샘플링 패턴을 이용하여 홀로그램을 획득한다. 이는 디지털 미소반사 표시기(DMD; Digital Micromirror Devices)를 사용하기 위해 시스템이 회전하는 반사 패턴을 기억하여 더 적은 수의 투영 뷰를 구현하기 쉽게 만들어야 하기 때문이다. 그러나, 투영 뷰가 부족하면 누락된 원뿔 아티팩트가 더 우세하고 RI 값이 부정확한 저품질 영상 등과 같은 기술적인 문제가 발생하여 원래 RI 값을 정확하게 정량화하기 어렵다.Nevertheless, technical challenges still remain in ODT. A particularly well-known missing cone problem stems from practical ODT instruments that can measure the scattering field only within a limited angle. As a result, the Fourier component is omitted in the cone-shaped angular region, resulting in image distortion that makes it difficult to quantify the RI value. Moreover, recent state-of-the-art systems acquire holograms using extremely sparse view sampling, for example, a circular sampling pattern with 49 views. This is because to use Digital Micromirror Devices (DMDs), the system must memorize rotating reflection patterns, making it easier to implement fewer projected views. However, the lack of projection views causes technical problems such as missing cone artifacts and low-quality images with inaccurate RI values, making it difficult to accurately quantify the original RI values.

많은 연구자들은 RI 분포에 대한 선행 지식을 통합한 반복적 재구성 접근법을 사용하여 이 문제를 해결하기 위한 다양한 방법을 연구하였다. 예를 들어, l1, 총변동(TV; total variation)과 같이 엣지 보존 또는 희소 프로모팅 정규화(sparsity promoting regularizations)를 사용하여 부적절하게 정립된 역 문제를 정규화하였다. 이 중 Gerchberg-Papoulis(GP) 알고리즘은 비음성 제약조건(non-negativity constraint)을 재구성에 통합하는 대표적인 방법 중 하나이다. 이러한 반복적 접근법은 원래 재구성에 비해 해상도를 향상시키지만, 본질적인 누락 각도 문제를 극복할 수 없다. 구체적으로, 획득 각도와 정렬된 몇 개의 슬라이스를 제외하면 재구성된 분포의 품질이 크게 저하된다. 더구나 TV의 정규화와 같은 평탄(smoothness) 제약조건은 재구성에 만화와 같은 아티팩트를 도입하는 경우가 많다.Many researchers have studied various methods to solve this problem by using an iterative reconstruction approach that incorporates prior knowledge of the RI distribution. Improperly established inverse problems were normalized using edge conservation or sparsity promoting regularizations, such as l 1 , total variation (TV), for example. Among them, the Gerchberg-Papoulis (GP) algorithm is one of the representative methods for integrating the non-negativity constraint into the reconstruction. Although this iterative approach improves resolution compared to the original reconstruction, it cannot overcome the inherent missing angle problem. Specifically, the quality of the reconstructed distribution is greatly degraded except for a few slices aligned with the acquisition angle. Moreover, smoothness constraints such as TV normalization often introduce cartoon-like artifacts into the reconstruction.

CT 재구성, MR 재구성, 양전자 방출 단층촬영, 초음파 영상촬영, 광학 현미경 검사 등과 같은 부적절하게 정립된 역문제를 해결하기 위한 딥러닝 접근법의 최근 성공에 영감을 받아 여러 저자들이 ODT에 딥러닝을 적용하였다. 이러한 방법의 대부분은 실제 데이터 수집이 가능한 지도 학습에 초점을 맞춘다. 그럼에도 불구하고, ODT의 많은 흥미로운 현실 상황에서 그러한 실측 자료는 직접 측정할 수 없다. 일부 작업들은 지도 방식으로 뉴럴 네트워크를 트레이닝시키기 위해 팬텀(phantom)을 이용하지만 실제 상황에서는 일반성이 결여되어 있다. 따라서, 일치하는 실측 자료가 없는 비지도 학습에 대한 필요성이 증가하고 있다.Inspired by the recent success of deep learning approaches to solve improperly established inverse problems, such as CT reconstruction, MR reconstruction, positron emission tomography, ultrasound imaging, and light microscopy, several authors have applied deep learning to ODT. . Most of these methods focus on supervised learning that enables real-world data collection. Nevertheless, in many interesting real-world situations in ODT, such ground truth data cannot be directly measured. Some tasks use phantoms to train neural networks in a supervised manner, but lack generality in practice. Therefore, there is an increasing need for unsupervised learning without matching actual data.

최근에는 생성적 적대 네트워크(GAN; generative adversarial networks)가 지도 트레이닝이 불가능한 다양한 비지도 학습방법의 주역이 되고 있다. 특히, GAN에는 입력 데이터를 타겟에 매핑하는 것을 담당하는 생성기와 타겟 분포를 학습하여 생성된 샘플이 더욱 사실적이 되도록 유도하는 구별기의 두 가지 구성요소가 존재한다. GAN은 이미지 생성, 번역 및 결측치 대체(imputation) 작업에서 많은 어플리케이션을 찾아냈다. 또한 생성기를 확률형 포워드 모델로 교체하고 재구성 볼륨을 직접 업데이트하는 것이 단일 입자 cryo-EM 재구성에 효과적인 것으로 밝혀졌다.Recently, generative adversarial networks (GANs) have become the protagonists of various unsupervised learning methods that cannot be supervised. Specifically, there are two components in a GAN: a generator responsible for mapping the input data to a target, and a discriminator, which learns the target distribution to induce the generated samples to be more realistic. GANs have found many applications in image creation, translation, and missing value imputation tasks. In addition, replacing the generator with a stochastic forward model and updating the reconstruction volume directly was found to be effective for single-particle cryo-EM reconstructions.

그러나, GAN의 또 다른 강력한 측면은 확률 분포를 학습하고 두 확률 분포 간의 양방향 변환을 수행하는 데 특히 효과적이라는 점이다. 사실 이 문제는 최적 운송(OT; optimal transport)의 수학 이론과 밀접한 관련이 있다. 보다 구체적으로, 최적 운송은 최소 운송 비용으로 한 개 확률 측정치를 다른 것으로 변환하는 최적 운송 맵을 찾는 것을 고려한다. 더욱이, Wasserstein-1 메트릭(metric)이 양방향 최적 운송에서 통계적 거리를 측정하는 수단으로 사용되는 경우, 일반적인 형태의 cycleGAN 프레임워크는 원시 최적 운송 문제의 Kantorovich 이중 공식으로 나타난다.However, another powerful aspect of GANs is that they are particularly effective at learning probability distributions and performing bidirectional transformations between two probability distributions. In fact, this problem is closely related to the mathematical theory of optimal transport (OT). More specifically, optimal transport considers finding an optimal transport map that transforms one probability measure into another with minimal transport cost. Moreover, when the Wasserstein-1 metric is used as a means to measure the statistical distance in bidirectional optimal transport, the general form of the cycleGAN framework appears as the Kantorovich double formula of the primitive optimal transport problem.

본 발명의 실시예들은, 비지도 학습 기반의 뉴럴 네트워크를 이용하여 단층촬영영상의 누락된 원뿔 아티팩트(missing cone artifacts)를 제거함으로써, 고화질의 단층촬영영상을 생성할 수 있는 단층촬영영상 처리 방법 및 그 장치를 제공한다.Embodiments of the present invention provide a tomography image processing method capable of generating a high-quality tomography image by removing missing cone artifacts of a tomography image using an unsupervised learning-based neural network, and provide that device.

본 발명의 일 실시예에 따른 단층촬영영상 처리 방법은 단층촬영영상을 수신하는 단계; 및 최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 상기 단층촬영영상에서 누락된 원뿔 아티팩트를 제거함으로써, 상기 누락된 원뿔 아티팩트가 제거된 투영 영상들을 생성하는 단계를 포함한다.A tomography image processing method according to an embodiment of the present invention comprises the steps of receiving a tomography image; And by removing the missing cone artifact from the tomography image using an unsupervised learning-based neural network generated based on the optimal transport theory, the projection image from which the missing cone artifact is removed including creating them.

상기 수신하는 단계는 광학회절 단층촬영영상에 대한 투영 영상들을 수신하고, 상기 생성하는 단계는 상기 뉴럴 네트워크를 이용하여 상기 투영 영상들에 포함된 상기 누락된 원뿔 아티팩트를 제거함으로써, 고해상도의 투영 영상들을 생성할 수 있다.In the receiving step, the projection images for the optical diffraction tomography image are received, and in the generating step, the high-resolution projection images are generated by removing the missing cone artifact included in the projection images using the neural network. can create

나아가, 본 발명의 일 실시예에 따른 단층촬영영상 처리 방법은 상기 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 3차원 단층촬영영상을 재구성하는 단계를 더 포함할 수 있다.Furthermore, the tomography image processing method according to an embodiment of the present invention may further include reconstructing a 3D tomography image through filtered backprojection (FBP) using the generated projection images. .

상기 뉴럴 네트워크는 비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습될 수 있다.The neural network may be trained using a training data set including non-matching data.

상기 뉴럴 네트워크는 제1 투영 영상을 입력으로 상기 제1 투영 영상을 상기 누락된 원뿔 아티팩트가 제거된 제2 투영 영상으로 변환하는 제1 뉴럴 네트워크; 상기 제2 투영 영상을 입력으로 상기 제2 투영 영상을 상기 누락된 원뿔 아티팩트가 포함된 제3 투영 영상으로 변환하는 제2 뉴럴 네트워크; 상기 제1 투영 영상과 상기 제3 투영 영상을 구별하는 제3 뉴럴 네트워크; 및 상기 제2 투영 영상과 상기 제2 투영 영상에 대응하는 실제 영상을 구별하는 제4 뉴럴 네트워크를 포함할 수 있다. The neural network may include: a first neural network for converting the first projection image into a second projection image from which the missing cone artifact is removed by receiving a first projection image; a second neural network for converting the second projection image into a third projection image including the missing cone artifact by receiving the second projection image; a third neural network for discriminating the first projection image and the third projection image; and a fourth neural network for discriminating the second projection image from an actual image corresponding to the second projection image.

상기 뉴럴 네트워크는 상기 제1 투영 영상과 상기 제3 투영 영상 간의 순환 손실(cyclic loss) 및 상기 제2 투영 영상과 상기 실제 영상 간의 적대 손실(adversarial loss)에 기초하여 비지도 학습될 수 있다.The neural network may be trained unsupervised based on a cyclic loss between the first projection image and the third projection image and an adversarial loss between the second projection image and the real image.

상기 뉴럴 네트워크는 투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습될 수 있다.The neural network may be trained based on predefined cyclic loss and adversarial loss with respect to the projection image and the projection image from which the missing cone artifact is removed.

상기 뉴럴 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크 및 풀링 레이어와 언풀링 레이어를 포함하는 뉴럴 네트워크 중 어느 하나의 뉴럴 네트워크를 포함할 수 있다. The neural network may include any one of a convolution framelet-based neural network and a neural network including a pooling layer and an unpooling layer.

본 발명의 다른 일 실시예에 따른 단층촬영영상 처리 방법은 단층촬영영상을 수신하는 단계; 최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 상기 단층촬영영상에서 누락된 원뿔 아티팩트를 제거함으로써, 상기 누락된 원뿔 아티팩트가 제거된 투영 영상들을 생성하는 단계; 및 상기 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 3차원 단층촬영영상을 재구성하는 단계를 포함한다.A tomography image processing method according to another embodiment of the present invention comprises the steps of receiving a tomography image; By removing the missing cone artifact from the tomography image using an unsupervised learning-based neural network generated based on the optimal transport theory, the projected images from which the missing cone artifact has been removed generating; and reconstructing a 3D tomography image through filtered backprojection (FBP) using the generated projection images.

본 발명의 일 실시예에 따른 단층촬영영상 처리 장치는 단층촬영영상을 수신하는 수신부; 및 최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 상기 단층촬영영상에서 누락된 원뿔 아티팩트를 제거함으로써, 상기 누락된 원뿔 아티팩트가 제거된 투영 영상들을 생성하는 생성부를 포함한다.A tomography image processing apparatus according to an embodiment of the present invention includes: a receiver for receiving a tomography image; And by removing the missing cone artifact from the tomography image using an unsupervised learning-based neural network generated based on the optimal transport theory, the projection image from which the missing cone artifact is removed and a generator for generating them.

상기 수신부는 광학회절 단층촬영영상에 대한 투영 영상들을 수신하고, 상기 생성부는 상기 뉴럴 네트워크를 이용하여 상기 투영 영상들에 포함된 상기 누락된 원뿔 아티팩트를 제거함으로써, 고해상도의 투영 영상들을 생성할 수 있다.The receiving unit may receive projection images for the optical diffraction tomography image, and the generating unit may generate high-resolution projection images by removing the missing cone artifact included in the projection images using the neural network. .

나아가, 본 발명의 일 실시예에 따른 단층촬영영상 처리 장치는 상기 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 3차원 단층촬영영상을 재구성하는 재구성부를 더 포함할 수 있다.Furthermore, the tomography image processing apparatus according to an embodiment of the present invention may further include a reconstruction unit for reconstructing a 3D tomography image through filtered backprojection (FBP) using the generated projection images. .

상기 뉴럴 네트워크는 비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습될 수 있다.The neural network may be trained using a training data set including non-matching data.

상기 뉴럴 네트워크는 제1 투영 영상을 입력으로 상기 제1 투영 영상을 상기 누락된 원뿔 아티팩트가 제거된 제2 투영 영상으로 변환하는 제1 뉴럴 네트워크; 상기 제2 투영 영상을 입력으로 상기 제2 투영 영상을 상기 누락된 원뿔 아티팩트가 포함된 제3 투영 영상으로 변환하는 제2 뉴럴 네트워크; 상기 제1 투영 영상과 상기 제3 투영 영상을 구별하는 제3 뉴럴 네트워크; 및 상기 제2 투영 영상과 상기 제2 투영 영상에 대응하는 실제 영상을 구별하는 제4 뉴럴 네트워크를 포함할 수 있다. The neural network may include: a first neural network for converting the first projection image into a second projection image from which the missing cone artifact is removed by receiving a first projection image; a second neural network for converting the second projection image into a third projection image including the missing cone artifact by receiving the second projection image; a third neural network for discriminating the first projection image and the third projection image; and a fourth neural network for discriminating the second projection image from an actual image corresponding to the second projection image.

상기 뉴럴 네트워크는 상기 제1 투영 영상과 상기 제3 투영 영상 간의 순환 손실(cyclic loss) 및 상기 제2 투영 영상과 상기 실제 영상 간의 적대 손실(adversarial loss)에 기초하여 비지도 학습될 수 있다.The neural network may be trained unsupervised based on a cyclic loss between the first projection image and the third projection image and an adversarial loss between the second projection image and the real image.

상기 뉴럴 네트워크는 투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습될 수 있다.The neural network may be trained based on predefined cyclic loss and adversarial loss with respect to the projection image and the projection image from which the missing cone artifact is removed.

상기 뉴럴 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크 및 풀링 레이어와 언풀링 레이어를 포함하는 뉴럴 네트워크 중 어느 하나의 뉴럴 네트워크를 포함할 수 있다. The neural network may include any one of a convolution framelet-based neural network and a neural network including a pooling layer and an unpooling layer.

본 발명의 실시예들에 따르면, 최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 단층촬영영상의 누락된 원뿔 아티팩트(missing cone artifacts)를 제거함으로써, 고화질의 단층촬영영상을 생성할 수 있다.According to embodiments of the present invention, missing cone artifacts of a tomography image are removed by using an unsupervised learning-based neural network generated based on an optimal transport theory. By doing so, a high-quality tomography image can be generated.

이러한 본 발명은 모든 분야의 단층촬영영상에서 이용이 가능한 일반적인 알고리즘이기에, 단층촬영영상 기술을 이용하는 모든 분야에 적용할 수 있고, 특히, 정답 영상을 모르는 경우에도 이용할 수 있는 비지도학습 기반이기 때문에 다양한 분야에 적용될 수 있다. 즉, 본 발명은 나노스케일 입자나 세포의 물리화학적 성질을 밝히기 위해 이용되는 광학회절 단층영상(Optical Diffraction Tomography)과 광학 간섭성 회절기술(Optical Coherence Tomography), 그리고 전자현미경 영상과 의료에 이용되는 엑스레이 단층촬영 영상 개선까지 단층촬영영상의 모든 분야에 적용될 수 있다. 예를 들어, 광학회절 단층영상에서는 적은 갯수의 홀로그램(hologram) 영상으로도 보이지 않던 부분을 본 발명을 통해 높은 해상도로 복원할 수 있으며, 일반적인 단층촬영 영상에서는 매우 적은 투사 영역 갯수만을 이용하여 높은 해상도의 3차원 영상을 복원할 수도 있다. 이를 통해, 물리적인 한계로 보이지 않던 부분을 높은 질로 복원할 수 있고, 기존에 느린 속도로 얻는 영상을 가속화할 수도 있다.Since the present invention is a general algorithm that can be used in tomography imaging in all fields, it can be applied to all fields using tomography imaging technology. can be applied to the field. That is, the present invention relates to optical diffraction tomography and optical coherence tomography used to reveal the physicochemical properties of nanoscale particles or cells, and electron microscope images and X-rays used in medicine. It can be applied to all fields of tomography imaging, up to the improvement of tomography imaging. For example, in an optical diffraction tomography image, a portion that was not visible even with a small number of hologram images can be restored with high resolution through the present invention. It is also possible to reconstruct a 3D image of In this way, it is possible to restore a part that was not seen due to a physical limitation with high quality, and it is also possible to accelerate an image obtained at a low speed.

따라서, 본 발명은 기존에는 볼 수 없었던 부분을 높은 해상도로 관찰할 수 있으며, 측정에 걸리던 시간을 획기적으로 단축하는데에도 이용할 수 있어, 시간적, 경제적 측면에서 활용도가 높을 수 있다.Therefore, the present invention can observe a previously invisible part with high resolution and can be used to dramatically shorten the measurement time, so that it can be highly useful in terms of time and economy.

도 1은 본 발명의 일 실시예에 따른 단층촬영영상 처리 방법에 대한 동작 흐름도를 나타낸 것이다.
도 2는 누락된 원뿔 아티팩트를 해결하기 위한 본 발명의 방법에 대한 접근 방식을 설명하기 위한 일 예시도를 나타낸 것이다.
도 3은 CycleGAN의 기하학적 뷰와 CycleGAN의 구조를 설명하기 위한 일 예시도를 나타낸 것이다.
도 4는 본 발명의 TomoGAN 프레임워크에서 사용되는 뉴럴 네트워크 구조에 대한 일 예시도를 나타낸 것이다.
도 5는 본 발명의 유효성을 검증하기 위한 일 예시도를 나타낸 것이다.
도 6은 NIH3T3 셀에 대하여 본 발명의 방법과 기존의 방법들을 비교한 일 예시도를 나타낸 것이다.
도 7은 기존의 방법들과 본 발명의 방법에 의해 재구성된 3차원 렌더링에 대한 일 예시도를 나타낸 것이다.
도 8은 본 발명의 일 실시예에 따른 단층촬영영상 처리 장치에 대한 구성을 나타낸 것이다.
1 is a flowchart showing an operation of a tomography image processing method according to an embodiment of the present invention.
Figure 2 shows an exemplary diagram for explaining an approach to the method of the present invention for resolving the missing cone artifact.
3 shows a geometric view of CycleGAN and an exemplary diagram for explaining the structure of CycleGAN.
4 shows an exemplary diagram of a neural network structure used in the TomoGAN framework of the present invention.
5 shows an exemplary diagram for verifying the effectiveness of the present invention.
6 shows an exemplary diagram comparing the method of the present invention and the existing methods for an NIH3T3 cell.
7 shows an exemplary diagram for 3D rendering reconstructed by the existing methods and the method of the present invention.
8 shows the configuration of a tomography image processing apparatus according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments, and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, "comprises" and/or "comprising" refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

본 발명의 실시예들은, 최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 단층촬영영상의 누락된 원뿔 아티팩트(missing cone artifacts)를 제거하는 것을 그 요지로 한다.Embodiments of the present invention remove missing cone artifacts of a tomography image using an unsupervised learning-based neural network generated based on an optimal transport theory. make it the gist of it.

이 때, 본 발명은 누락된 원뿔 아티팩트가 제거된 투영 영상들을 이용하여 3D 단층촬영영상을 재구성할 수 있으며, 필터보정역투영(FBP; filtered backprojection)을 이용하여 3D 단층촬영영상을 재구성할 수 있다.In this case, in the present invention, a 3D tomography image can be reconstructed using projection images from which the missing cone artifact has been removed, and a 3D tomography image can be reconstructed using filtered backprojection (FBP). .

즉, 본 발명은 비지도 학습 기반의 단일 뉴럴 네트워크만을 이용하여 단층촬영영상의 투영 영상에 포함된 누락된 원뿔 아티팩트를 제거함으로써, 누락된 원뿔 아티팩트가 제거된 고화질의 투영 영상을 생성하고, 이를 통해 고해상도의 3D 단층촬영영상을 재구성할 수 있다.That is, the present invention removes the missing cone artifact included in the projection image of the tomography image using only a single neural network based on unsupervised learning, thereby generating a high-quality projection image from which the missing cone artifact is removed. High-resolution 3D tomography images can be reconstructed.

뉴럴 네트워크로 입력되는 영상은 단층촬영영상에 대한 투영 영상들로, 투영 영상들은 광학회절 단층촬영영상에 대한 투영 영상들일 수 있으며, 이러한 투영 영상들은 누락된 원뿔 아티팩트를 포함할 수 있다.An image input to the neural network may be projection images of a tomography image, and the projection images may be projection images of an optical diffraction tomography image, and these projection images may include a missing cone artifact.

나아가, 본 발명의 뉴럴 네트워크는 비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습될 수 있으며, 투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습될 수 있다.Furthermore, the neural network of the present invention can be trained using a training data set including mismatching data, and with respect to the projection image and the projection image from which the missing cone artifact is removed, a predefined cyclic loss and It can be learned based on adversarial loss.

여기서, 본 발명에서 사용하는 뉴럴 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크, 풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 뉴럴 네트워크 예를 들어, U-Net을 포함할 수 있으며, 이 뿐만 아니라 본 발명에 적용 가능한 다양한 종류의 뉴럴 네트워크를 포함할 수 있다.Here, the neural network used in the present invention may include a convolution framelet-based neural network, a neural network including a pooling layer and an unpooling layer, for example, U-Net. In addition to this, various types of neural networks applicable to the present invention may be included.

컨볼루션 프레임렛은 국소 기저 및 비국소 기저를 통해 입력 신호를 표현하는 방식을 의미하는 것으로, 딥 컨볼루션 뉴럴 네트워크의 블랙박스 특성을 밝히기 위해 딥 컨볼루션 프레임렛의 새로운 수학 이론에 대한 연구(Ye, JC., Han, Y., Cha, E.: Deep convolutional framelets: a general deep learning framework for inverse problems. SIAM Journal on Imaging Sciences 11(2), 991-1048(2018))에 상세하게 설명되어 있다.A convolutional framelet refers to a method of representing an input signal through a local basis and a non-local basis. In order to reveal the black box characteristics of deep convolutional neural networks, a study on a new mathematical theory of deep convolutional framelets (Ye , JC., Han, Y., Cha, E.: Deep convolutional framelets: a general deep learning framework for inverse problems. .

도 1은 본 발명의 일 실시예에 따른 단층촬영영상 처리 방법에 대한 동작 흐름도를 나타낸 것이다.1 is a flowchart showing an operation of a tomography image processing method according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 단층촬영영상 처리 방법은 단층촬영영상을 수신한다(S110).Referring to FIG. 1 , a tomography image processing method according to an embodiment of the present invention receives a tomography image ( S110 ).

여기서, 단계 S110은 광학회절 단층촬영영상에 대한 투영 영상들일 수 있으며, 이러한 투영 영상들은 고화질의 투영 영상 뿐만 아니라 누락된 원뿔 아티팩트를 포함하는 투영 영상들을 포함할 수 있다.Here, step S110 may be projection images for an optical diffraction tomography image, and these projection images may include not only high-quality projection images but also projection images including missing cone artifacts.

단계 S110을 통해 단층촬영영상 즉, 투영 영상들이 수신되면, 최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습 기반의 뉴럴 네트워크를 이용하여 수신된 투영 영상들에서 누락된 원뿔 아티팩트를 제거함으로써, 누락된 원뿔 아티팩트가 제거된 고화질의 투영 영상들을 생성한다(S120).When a tomography image, that is, projection images is received through step S110, a cone artifact missing from the received projection images is removed using an unsupervised learning-based neural network generated based on an optimal transport theory. , high-quality projection images from which the missing cone artifact is removed are generated ( S120 ).

여기서, 뉴럴 네트워크는 비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습될 수 있으며, 제1 투영 영상을 입력으로 제1 투영 영상을 누락된 원뿔 아티팩트가 제거된 제2 투영 영상으로 변환하는 제1 뉴럴 네트워크, 제2 투영 영상을 입력으로 제2 투영 영상을 누락된 원뿔 아티팩트가 포함된 제3 투영 영상으로 변환하는 제2 뉴럴 네트워크, 제1 투영 영상과 제3 투영 영상을 구별하는 제3 뉴럴 네트워크와 제2 투영 영상과 제2 투영 영상에 대응하는 실제 영상을 구별하는 제4 뉴럴 네트워크를 이용하여 본 발명의 뉴럴 네트워크를 학습할 수 있다. 본 발명의 뉴럴 네트워크는 투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습될 수 있다. 예를 들어, 본 발명의 뉴럴 네트워크는 제1 투영 영상과 제3 투영 영상 간의 순환 손실(cyclic loss) 및 제2 투영 영상과 실제 영상 간의 적대 손실(adversarial loss)에 기초하여 비지도 학습될 수 있다.Here, the neural network may be trained using a training data set including non-matching data, and the first projection image is input to convert the first projection image into a second projection image from which the missing cone artifact is removed. a neural network, a second neural network for converting a second projection image to a third projection image including a missing cone artifact by inputting the second projection image, a third neural network for discriminating the first projection image from the third projection image The neural network of the present invention may be learned by using a fourth neural network for discriminating the second projection image and the real image corresponding to the second projection image. The neural network of the present invention may be trained based on predefined cyclic loss and adversarial loss with respect to the projection image and the projection image from which the missing cone artifact is removed. For example, the neural network of the present invention may be trained unsupervised based on a cyclic loss between the first projection image and the third projection image and an adversarial loss between the second projection image and the real image. .

이 때, 뉴럴 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크 및 풀링 레이어와 언풀링 레이어를 포함하는 뉴럴 네트워크 중 어느 하나의 뉴럴 네트워크를 포함할 수 있다.In this case, the neural network may include any one of a convolution framelet-based neural network and a neural network including a pooling layer and an unpooling layer.

단계 S120에 의해 누락된 원뿔 아티팩트가 제거된 투영 영상들이 생성되면, 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 고화질의 3차원 단층촬영영상을 재구성한다(S130).When projection images from which the missing cone artifact is removed are generated by step S120, a high-quality 3D tomography image is reconstructed through filtered backprojection (FBP) using the generated projection images (S130).

이러한 본 발명의 방법은 확률분포를 변환하는 CycleGAN의 능력과 널리 사용되는 GP 알고리즘을 모두 활용하여 ODT에 대한 새로운 재구성 방법을 제공하는 것으로, 특히 홀로그램을 더 많은 각도로 획득하여 공간 전체를 적절히 커버한다면 GP 재구성의 모든 각도의 투영 데이터도 유사한 특성을 가질 수 있다. 하지만, 원래 ODT 측정의 시야각이 제한되어 있기 때문에 랜덤 각도로 투영될 때 획득 각도에 맞춰 정렬된 GP 재구성의 합성 2D 투영 데이터는 높은 해상도를 갖는 반면, 나머지는 높은 노이즈 레벨과 흐릿함을 특징으로 할 수 있다. 따라서, 본 발명의 방법은 투영 데이터를 두 세트로 나눌 수 있으며, 두 세트 중 하나는 획득 각도와 정렬된 투영 영상을 포함하고 다른 하나는 모든 각도의 투영 측정을 포함할 수 있다.This method of the present invention provides a new reconstruction method for ODT by utilizing both CycleGAN's ability to transform probability distribution and a widely used GP algorithm. The projection data of all angles of the GP reconstruction may also have similar properties. However, due to the limited viewing angle of the original ODT measurements, the synthetic 2D projection data of the GP reconstructions aligned to the acquisition angle when projected at random angles have high resolution, whereas the rest can be characterized by high noise levels and blurring. there is. Accordingly, the method of the present invention may divide the projection data into two sets, one of which may contain the projection image aligned with the acquisition angle and the other may contain the projection measurements of all angles.

본 발명의 방법에 대하여, 도 2 내지 도 7을 참조하여 설명하면 다음과 같다.The method of the present invention will be described with reference to FIGS. 2 to 7 as follows.

본 발명의 주요 아이디어는 CycleGAN을 사용하여 흐릿한 투영의 확률 분포를 획득 각도에서 고해상도 투영 영상의 확률 분포로 변환할 수 있는 최적 운송 맵을 학습하는 것이다. 본 발명의 뉴럴 네트워크 예를 들어, TomoGAN 네트워크가 흐릿한 투영 영상을 향상시키기 위해 트레이닝된 후, 도 2에 도시된 바와 같이 그 결과 고해상도 등각 투영이 단순 필터보정역투영(FBP; filtered backprojection)과 결합되어 최종 재구성을 달성한다.The main idea of the present invention is to use CycleGAN to learn an optimal transport map that can transform the probability distribution of a blurred projection into a probability distribution of a high-resolution projection image at the acquisition angle. After the neural network of the present invention, for example, the TomoGAN network is trained to improve the blurry projection image, as shown in FIG. to achieve the final reconstruction.

도 2는 누락된 원뿔 아티팩트를 해결하기 위한 본 발명의 방법에 대한 접근 방식을 설명하기 위한 일 예시도를 나타낸 것으로, 도 2에 도시된 바와 같이 ODT는 획득 각도가 크게 제한되는 홀로그램으로 회절 파를 측정하고, GP 알고리즘은 초기 재구성에 적용되어, 3D RI 데이터를 재구성 한 후 병렬 빔 투영을 수행함으로써, 2D 투영 데이터를 생성하며, TomoGAN 투영 향상 과정을 통해 투영 영상을 향상시킨 후 향상된 투영 데이터를 사용하는 FBP 알고리즘을 이용하여 최종 재구성을 획득할 수 있다.Fig. 2 shows an exemplary view for explaining the approach of the present invention for solving the missing cone artifact. As shown in Fig. 2, the ODT is a hologram in which the acquisition angle is greatly limited. Measuring, GP algorithm is applied to the initial reconstruction, reconstructing 3D RI data and then performing parallel beam projection to generate 2D projection data, and then using the enhanced projection data after enhancing the projection image through the TomoGAN projection enhancement process The final reconstruction can be obtained using the FBP algorithm.

Rytov 재구성에 대하여 설명하면, 다양한 조명 각도로 측정된 3개의 2차원 홀로그램에는 진폭과 위상 지연 정보가 담겨 있다. Rytov 근사 후, 각 홀로그램의 Fourier 샘플은 Fourier 회절 정리에 따라 특정 3D 반구형 쉘을 따라 3D k-공간으로 매핑되며, RI Tomogram은 역 Fourier 변환에 의해 획득될 수 있다. Regarding the Rytov reconstruction, three 2D holograms measured at various illumination angles contain amplitude and phase delay information. After Rytov approximation, the Fourier sample of each hologram is mapped into 3D k-space along a specific 3D hemispherical shell according to the Fourier diffraction theorem, and the RI Tomogram can be obtained by inverse Fourier transform.

Gerchberg-Papoulis(GP) 알고리즘에 대하여 설명하면, 제한된 개구수(NA, numerical aperture)와 특정 조명 각도의 제한이 측면 산란 신호의 획득을 방해한다. k-공간에서 누락된 정보를 산출하여 RI 값 감소 및 x-y 해상도 저하를 초래한다. 이 문제를 극복하기 위해, 비음성 부과하는 반복적인 방법에 근거하여 GP 알고리즘을 사용한다. 비음성 제한은 산란 가능성이 배경보다 낮은 RI 값을 가지면 안 된다는 것을 의미한다. 구체적으로, 백그라운드 RI 값보다 낮은 지수를 찾아 백그라운드 RI 값으로 대체한 후 실제 측정 데이터를 k-공간에 다시 삽입하며, 이러한 과정은 반복적으로 반복된다. 이 때, 반복 GP 알고리즘으로 재구성된 3D RI 데이터는 본 발명의 TomoGAN 프레임워크의 초기화 포인트로 사용될 수 있다.Regarding the Gerchberg-Papoulis (GP) algorithm, The limited numerical aperture (NA) and the limitation of specific illumination angles prevent the acquisition of side scatter signals. It yields missing information in k-space, resulting in a decrease in RI value and a decrease in xy resolution. To overcome this problem, we use a GP algorithm based on an iterative method of non-voice imposition. Non-negative restriction means that the scattering probability should not have an RI value lower than the background. Specifically, after finding an index lower than the background RI value and replacing it with the background RI value, the actual measurement data is inserted back into the k-space, and this process is repeated repeatedly. At this time, the 3D RI data reconstructed by the iterative GP algorithm may be used as an initialization point of the TomoGAN framework of the present invention.

TV 재구성에 대하여 설명하면, TV 정규화된 반복 재구성 방법은 이전 작업에서 동일한 접근 방식을 사용하여 실행될 수 있다.Regarding TV reconstruction, the TV normalized iterative reconstruction method can be implemented using the same approach in the previous work.

본 발명의 방법인 TomoGAN 재구성에 대하여 설명하면, 먼저, x를 나타내는 GP 알고리즘을 사용하여 초기 3D 재구성을 수행한 후 아래 <수학식 2>와 같이 병렬 빔 전방 투영을 수행한다.When describing the TomoGAN reconstruction, which is the method of the present invention, first, an initial 3D reconstruction is performed using a GP algorithm representing x, and then parallel beam forward projection is performed as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00002
Figure pat00002

여기서, yω는 입체각 ω에서의 투영 측정을 의미할 수 있다.Here, y ω may mean a projection measurement at a solid angle ω.

이 투영 단계는 ODT의 전방 회절 모델과는 다소 다른 고속 연산을 위해 병렬 빔 투영을 사용한다는 점에 유의해야 한다. 그러나 투영-슬라이스 정리와 투영-회절 정리 사이의 관계 덕분에 실제 홀로그램이 측정되는 입체각에서 도 3과 같이 고해상도 투영을 제공한다.It should be noted that this projection step uses parallel beam projection for high-speed computation, which is somewhat different from the forward diffraction model of ODT. However, thanks to the relationship between the projection-slice theorem and the projection-diffraction theorem, it provides a high-resolution projection as in Fig. 3 at the solid angle at which the actual hologram is measured.

이 전방 투영은 YΩ와 YΩ c의 두 가지 투영 영상 분포를 생성하며, 여기서 Ω는 측정된 투영 각도에 대한 입체각을 나타내며, Ωc는 측정되지 않은 입체각을 나타낼 수 있다. ω ∈ Ω에서의 투영 영상 yω는 일반적으로 누락된 원뿔 각 아티팩트가 누락되지 않고 매우 높은 해상도를 가지고 있는 반면, ω ∈ Ωc의 영상은 원뿔 각이 누락된 상태에서 흐릿하게 나오는 것으로 인해 어려움을 겪는다. 따라서 YΩ의 확률분포를 학습함으로써 YΩ c의 확률분포를 향상시키는 변형을 찾는 것이 중요하다.This forward projection produces two projection image distributions, Y Ω and Y Ω c , where Ω represents the solid angle with respect to the measured projection angle, and Ω c may represent the unmeasured solid angle. The projected image y ω at ω ∈ Ω usually has very high resolution with no missing cone angle artifacts, whereas the image of ω ∈ Ω c suffers from blurring with missing cone angles. suffer Therefore, it is important to find a transformation that improves the probability distribution of Y Ω c by learning the probability distribution of Y Ω .

사실, 이 문제는 최적 운송(OT)의 수학적 이론을 사용하여 엄격하게 다루어질 수 있다. 보다 구체적으로, 최적 운송은 최소 운송 비용으로 한 확률 측정치를 다른 것으로 운송할 수 있는 최적의 운송 맵를 찾는 것을 고려한다. 특히, 입력 투영 공간 YΩ c는 도 3a에 도시된 바와 같이 확률 측정치 μ가 있는 반면, 타겟 투영 공간 YΩ은 확률 측정치 ν를 갖추어 있다고 가정한다. 측정 공간 (Yc Ω,ν)에서 다른 확률 측정 공간 (YΩ,μ)으로의 대량 전송은 누락된 원뿔 아티팩트 보정 생성기 G에 의해 수행됨을 알 수 있다. 즉, 생성기 G는 목표 공간 YΩ의 측정값 μG에 YΩ c의 확률 측정치 ν를 앞으로 밀고 나간다. 반면에 (YΩ,μ)에서 (Yc Ω,ν)까지의 질량 운송은 F가 공간 YΩ 의 확률 측정치 μ에서 YΩ c의 νF까지 확률 측정을 추진하도록 아티팩트 생성 연산자 F가 수행한다. 그러면 μ과 μG 사이의 통계 거리 dist(μ,μG), ν와 νF 사이의 통계 거리 dist(ν,νF)를 최소화함으로써, 비지도 학습을 위한 최적의 운송 맵을 달성할 수 있다. 이 때, 본 발명의 방법은 Wasserstein-1 메트릭을 통계 거리를 측정하는 수단으로 사용할 수 있다.In fact, this problem can be addressed rigorously using the mathematical theory of optimal transport (OT). More specifically, optimal transport considers finding the optimal transport map that can transport one probability measure to another with minimal transport cost. In particular, it is assumed that the input projection space Y Ω c has a probability measure μ, as shown in FIG. 3A , whereas the target projection space Y Ω is equipped with a probability measure ν. It can be seen that the bulk transfer from one measurement space (Y c Ω ,ν) to another probabilistic measurement space (Y Ω , μ) is performed by the missing cone artifact correction generator G. That is, the generator G pushes forward the probability measurement ν of Y Ω c to the measurement value μ G of the target space Y Ω . On the other hand, mass transport from (Y Ω ,μ) to (Y c Ω ,ν) is performed by the artifact generation operator F such that F drives the probability measurement from μ in space Y Ω to ν F in Y Ω c . . Then, by minimizing the statistical distance dist(μ,μ G ) between μ and μ G and the statistical distance dist( ν,ν F ) between ν and ν F , we can achieve an optimal transport map for unsupervised learning. . In this case, the method of the present invention can use the Wasserstein-1 metric as a means for measuring the statistical distance.

특히, Kantorovich OT 공식을 이용하여 두 거리를 함께 최소화하면 아래 <수학식 3> 및 <수학식 4>와 같은 cycleGAN 공식이 도출될 수 있다.In particular, if the two distances are minimized together using the Kantorovich OT formula, cycleGAN formulas such as Equation 3 and Equation 4 below can be derived.

[수학식 3][Equation 3]

Figure pat00003
Figure pat00003

[수학식 4][Equation 4]

Figure pat00004
Figure pat00004

여기서, λ는 미리 설정된 하이퍼 파라미터를 의미할 수 있으며, 사이클 일관성 손실은 아래 수학식에 의해 정의될 수 있다.Here, λ may mean a preset hyper parameter, and the cycle coherence loss may be defined by the following equation.

Figure pat00005
Figure pat00005

그리고 구별기 항에 대한 손실은 아래 수학식에 의해 주어질 수 있다.And the loss for the discriminator term can be given by the following equation.

Figure pat00006
Figure pat00006

여기서, φ와 ψ는 각각 YΩ와 YΩ c의 가짜 투영과 실제 투영을 구별하는 구별기 항을 의미할 수 있다. Here, ϕ and ψ may mean a discriminator term that distinguishes the spurious projection and the real projection of Y Ω and Y Ω c , respectively.

Kantorovich 가능성은 1-Lipschitz여야 하며, 본 발명은 LS-GAN 공식을 구별기 손실로 사용하여 유한 Lipschitz 조건을 부과할 수 있다. 도 3b에 도시된 CycleGAN 네트워크가 트레이닝되면, 네트워크 G를 활용하여 추론 단계에서 어떤 각도에서든 향상된 투영 데이터를 생성할 수 있다.The Kantorovich probability must be 1-Lipschitz, and the present invention can impose a finite Lipschitz condition using the LS-GAN formula as the discriminator loss. Once the CycleGAN network shown in Figure 3b is trained, network G can be utilized to generate enhanced projection data at any angle in the inference step.

개선된 병렬 투영 데이터에서의 최종 3D 재구성의 경우 투영 데이터 세트에서 3D 단층촬영을 획득하는 여러 가지 방법이 있을 수 있다. 예를 들어, 투영 각도가 랜덤인 경우 투영 재구성을 설명하기 위해 cryp-EM 커뮤니티에서 가중 역투영(WBP), Fourier 재구성 및 동시 반복 재구성(SIRT)이 사용될 수 있다. 본 발명은 합성 투영 각도를 제어할 수 있기 때문에 각도 증분이 동일한 필터보정역투영(FBP)을 사용할 수 있다. 구체적으로, 각 좌표 축을 중심으로 360개의 등각 투영이 생성되고, 이후 필터보정역투영(FBP)를 적용하여 최종 재구성을 수행할 수 있다. 세 축의 균형을 유지하기 위해 재구성된 3D 포텐셜 세트의 평균을 구하여 최종 결과를 획득할 수 있다.For the final 3D reconstruction on the improved parallel projection data, there can be several ways to obtain 3D tomography from the projection data set. For example, weighted backprojection (WBP), Fourier reconstruction, and simultaneous iterative reconstruction (SIRT) can be used in the cryp-EM community to describe the projection reconstruction when the projection angle is random. Because the present invention can control the angle of the composite projection, it is possible to use a filter corrected inverse projection (FBP) with the same angular increment. Specifically, 360 isometric projections are generated around each coordinate axis, and thereafter, filter-corrected inverse projection (FBP) is applied to perform final reconstruction. The final result can be obtained by averaging the reconstructed 3D potential set to maintain the balance of the three axes.

도 3b에 도시된 바와 같이, 본 발명의 뉴럴 네트워크는 두 개의 생성기 G, F와 두 개의 구별기 φ, ψ를 이용하여 학습될 수 있으며, 두 개의 생성기는 도 4a에 도시된 바와 같이 동일한 뉴럴 네트워크 아키텍처를 사용하여 구현될 수 있고, 두 개의 구별기는 도 4b에 도시된 바와 같이 동일한 뉴럴 네트워크 아키텍처를 사용하여 구현될 수 있다.As shown in Fig. 3b, the neural network of the present invention can be trained using two generators G and F and two discriminators φ and ψ, and the two generators are the same neural network as shown in Fig. 4a. It can be implemented using an architecture, and the two distinguishers can be implemented using the same neural network architecture as shown in FIG. 4B .

즉, 도 3b에 도시된 뉴럴 네트워크는 제1 투영 영상(YΩ c)을 입력으로 제1 투영 영상을 누락된 원뿔 아티팩트가 제거된 제2 투영 영상(YΩ)으로 변환하는 제1 생성기(G), 제2 투영 영상(YΩ)을 입력으로 제2 투영 영상을 누락된 원뿔 아티팩트가 포함된 제3 투영 영상(YΩ c)으로 변환하는 제2 생성기(F), 제1 투영 영상과 제3 투영 영상을 구별하는 제1 구별기(ψ)와 제2 투영 영상과 제2 투영 영상에 대응하는 실제 영상을 구별하는 제2 구별기(φ)를 포하한다. 이러한 뉴럴 네트워크는 도 3b에 도시된 바와 같이, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습될 수 있다.That is, the neural network shown in FIG. 3b receives a first projection image (Y Ω c ) as an input and converts the first projection image into a second projection image (Y Ω ) from which the missing cone artifact is removed. ), a second generator (F) that converts the second projection image into a third projection image (Y Ω c ) with missing cone artifacts as input, the first projection image and the second projection image (Y Ω c ). 3 and a first distinguisher ψ for discriminating the projection image and a second discriminator φ for discriminating the second projection image and the real image corresponding to the second projection image. Such a neural network may be trained based on predefined cyclic loss and adversarial loss, as shown in FIG. 3B .

제1 생성기(G)는 누락된 원뿔 아티팩트를 포함하는 투영 영상을 입력으로 하여 누락된 원뿔 아티팩트를 제거한 투영 영상을 출력하거나 제2 생성기(F)에서 출력된 투영 영상 즉, 누락된 원뿔 아티팩트가 포함되지 않은 고화질의 투영 영상에 누락된 원뿔 아티팩트를 포함시킨 투영 영상을 입력으로 하여 해당 투영 영상에 포함된 누락된 원불 아티팩트를 제거한 고화질의 투영 영상을 출력한다.The first generator G receives a projection image including the missing cone artifact as an input and outputs a projection image from which the missing cone artifact is removed, or the projection image output from the second generator F, that is, includes the missing cone artifact A high-quality projection image in which the missing cone artifact included in the corresponding projection image is removed is output by inputting a projection image including the missing cone artifact in the high-quality projection image that is not in the projection image.

제2 생성기(F)는 누락된 원뿔 아티팩트가 포함되지 않은 고화질의 투영 영상을 입력으로 하여 누락된 원뿔 아티팩트를 포함하는 투영 영상을 출력하거나 제1 생성기에서 출력된 투영 영상을 입력으로 하여 해당 투영 영상에 누락된 원뿔 아티팩트를 포함하는 투영 영상을 출력한다.The second generator F receives a high-quality projection image that does not include the missing cone artifact as an input and outputs a projection image including the missing cone artifact, or receives the projection image output from the first generator as an input and receives a corresponding projection image Outputs the projection image including the missing cone artifacts.

제1 구별기(ψ)는 누락된 원뿔 아티팩트를 포함하는 투영 영상과 제2 생성기(F)에 의해 출력된 투영 영상을 구별하는 뉴럴 네트워크이며, 제2 구별기(φ)는 제1 생성기(G)에 의해 누락된 원뿔 아티팩트가 제거된 투영 영상과 누락된 원뿔 아티팩트를 포함하지 않는 고화질의 실제 투영 영상을 구별하는 뉴럴 네트워크이다.The first discriminator ψ is a neural network that discriminates the projection image including the missing cone artifact from the projection image output by the second generator F, and the second discriminator φ is the first generator G ) is a neural network that discriminates the projected image from which the missing cone artifacts have been removed from the high-quality real projection image that does not include the missing cone artifacts.

즉, 본 발명에서 사이클 지속성은 누락된 원뿔 아티팩트를 포함하는 투영 영상에서 누락된 원뿔 아티팩트를 제거한 타겟 투영 영상을 출력하여 타겟 투영 영상에 대한 누락된 원뿔 아티팩트를 포함하는 투영 영상을 출력한 후 이를 다시 생성기의 입력으로 돌아오는 과정을 반복한다. 그리고 입력 영상과 제2 생성기에서 출력된 투영 영상이 서로 같아지도록 뉴럴 네트워크를 순환 방식으로 학습시킨다. 물론, 이러한 순환 방식의 학습은 도 3b의 하부 생성기들에 대해서도 동시에 이루어진다. 비지도 학습 방식은 생성적 적대 뉴럴 네트워크(GAN)을 사용하여 구별기들을 학습 시킨다.That is, in the present invention, cycle continuity refers to outputting a target projection image in which the missing cone artifact is removed from the projection image including the missing cone artifact, outputting the projection image including the missing cone artifact for the target projection image, and then re-using it. Repeat the process of returning to the input of the generator. Then, the neural network is trained in a cyclic manner so that the input image and the projected image output from the second generator are identical to each other. Of course, this cyclic learning is simultaneously performed for the lower generators of FIG. 3B . The unsupervised learning method uses generative adversarial neural networks (GANs) to train discriminators.

본 발명은 도 4a에 도시된 바와 같은 생성기 아키텍처를 사용할 수 있으며, U-Net에서 일부 수정된 인코더-디코더 아키텍처일 수 있다.The present invention may use a generator architecture as shown in Fig. 4a, and may be a partially modified encoder-decoder architecture in U-Net.

인코더와 디코더 부분은 3×3 컨볼루션 레이어, ReLU 활성화 함수와 그룹 크기가 8인 그룹 정규화를 포함하며, 풀링 레이어의 경우 stride 2가 있는 3×3 컨볼루션을 사용할 수 있고, 언풀링 레이어의 경우 bilinear upscaling을 사용할 수 있다. 스킵 연결은 인코더 부분의 각 레벨의 특징은 연결하는데 사용되며, 재구성의 최종 단계에 1×1 컨볼루션 레이어가 사용된다.Encoder and decoder parts contain 3×3 convolution layer, ReLU activation function and group normalization with group size of 8, for pooling layer you can use 3×3 convolution with stride 2, for unpooling layer You can use bilinear upscaling. Skip concatenation is used to connect the features of each level of the encoder part, and a 1×1 convolutional layer is used in the final stage of reconstruction.

그리고, 구별기 아키텍처는 도 4b에 도시된 바와 같이 pix2pix3의 patchGAN에서 채택할 수 있고, stride 2가 있는 4×4 컨볼루션을 사용하여 영상 크기를 효율적으로 줄일 수 있다. 컨볼루션 블록들 간에는 LeakyReLU 활성화 인스턴스 정규화가 사용될 수 있으며, 최종 단계에 1×1 컨볼루션 레이어가 사용된다.And, the discriminator architecture can be adopted in the patchGAN of pix2pix3 as shown in Fig. 4b, and the image size can be efficiently reduced by using a 4×4 convolution with stride 2. LeakyReLU activation instance normalization can be used between convolution blocks, and a 1×1 convolution layer is used in the final step.

도 5는 본 발명의 유효성을 검증하기 위한 일 예시도를 나타낸 것으로, 원래 값이 1.46인 마이크로비드의 재구성에 대하여 Rytov 재구성, GP 알고리즘, 총변동(TV) 재구성과 본 발명의 방법을 비교한 것이다. 여기서, 도 5a는 서로 다른 평면에서의 다른 슬라이스들과 k-공간의 대응 시각화를 나타낸 것이고, 도 5b는 RI 분포의 히스토그램 분석을 나타낸 것이며, 도 5c는 x축에 따른 선 프로파일을 나타낸 것이다. 도 5a의 각 슬라이스는 볼륨의 중심에서 가져올 수 있으며, 도 5b의 컬러바의 강도는 데이터의 bin 수를 의미할 수 있다.Figure 5 shows an exemplary view for verifying the effectiveness of the present invention, comparing the method of the present invention with Rytov reconstruction, GP algorithm, and total variation (TV) reconstruction for the reconstruction of microbeads having an original value of 1.46 . Here, Fig. 5a shows the corresponding visualization of k-space with different slices in different planes, Fig. 5b shows the histogram analysis of the RI distribution, and Fig. 5c shows the line profile along the x-axis. Each slice of FIG. 5A may be taken from the center of the volume, and the intensity of the color bar of FIG. 5B may mean the number of bins of data.

도 5에 도시된 바와 같이, Rytov 재구성을 통해 마이크로비드의 원래 형상이 보존되지 않는 것을 알 수 있고, 더욱이 광학 축을 따라 늘어선 연장(elongation)이 특히 y-z와 x-z 평면에서 뚜렷하게 나타나는 것을 알 수 있다(도 5a). GP를 통한 재구성은 연장 문제를 어느 정도 해결하지만, 원래 형상을 제대로 포착하지 못하며, 더욱이, 3D 푸리에 공간을 가리키는 k-공간에서 누락된 원뿔 문제로 인해 RI 값이 실제 값에서 크게 과소평가되고 있는 것을 알 수 있다. TV 재구성 결과는 이 방식이 재구성의 원활함(smoothness)을 분명히 요구하기 때문에 보다 동질(homogenuous) 구조를 만들어 낸다는 점에서 더 좋은 결과를 보여주지만, 과소평가된 RI 값 뿐만 아니라, y-z 또는 x-z 평면에서 볼 수 있는 컷뷰(cutviews)는 여전히 구면 형상을 제대로 포착하지 못하는 것을 알 수 있으며, 더욱이 누락된 원뿔 문제는 k-공간에서도 여전히 눈에 띄는 것을 알 수 있다. 반면, 본 발명의 방법에 의한 재구성은 마이크로비드의 구면 형상이 보존되고, 과소평가된 RI 값이 유지되는 것을 알 수 있다. 또한 k-공간은 동질 구를 재구성하는 경우 보여지는 근사 sinc 함수를 보여주며, RI 분포는 Rytov 재구성 및 GP 재구성에 비교하여 실제 RI 값으로 이동되는 것을 알 수 있다. 또한, 도 5c에 도시된 바와 같이, 평균 RI 값은 본 발명의 방법에 의해 실제 값으로 향상되는 것을 알 수 있다.As shown in Fig. 5, it can be seen that the original shape of the microbeads is not preserved through Rytov reconstruction, and moreover, elongation along the optical axis is particularly evident in the yz and xz planes (Fig. 5a). Reconstruction with GP solves the extension problem to some extent, but does not capture the original shape well, and moreover, the RI value is greatly underestimated from the real value due to the missing cone problem in the k-space pointing to the 3D Fourier space. Able to know. TV reconstruction results show better results in that this method produces a more homogenous structure because it clearly requires smoothness of reconstruction, but not only underestimated RI values, but also in the yz or xz plane. It can be seen that the visible cutviews still do not capture the spherical shape properly, and moreover, the missing cone problem is still noticeable in k-space. On the other hand, it can be seen that the reconstitution by the method of the present invention preserves the spherical shape of the microbeads and maintains an underestimated RI value. In addition, the k-space shows the approximate sinc function shown when the homogeneous sphere is reconstructed, and it can be seen that the RI distribution is shifted to the actual RI value compared to the Rytov reconstruction and the GP reconstruction. In addition, as shown in Fig. 5c, it can be seen that the average RI value is improved to the actual value by the method of the present invention.

도 6은 NIH3T3 셀에 대하여 본 발명의 방법과 기존의 방법들을 비교한 일 예시도를 나타낸 것으로, 회전 각도에 따른 투영 뷰를 비교한 일 예시도를 나타낸 것이다. 여기서, 투영 뷰는 y축에 따라 회전하여 생성될 수 있다.6 shows an exemplary diagram comparing the method of the present invention and the existing methods for the NIH3T3 cell, and shows an exemplary diagram comparing the projection view according to the rotation angle. Here, the projection view may be generated by rotating it along the y-axis.

도 6에 도시된 바와 같이, 기존 방법들인 TV, GP, Rytov는 특정 각도에서 벗어나면 즉, 투영 각도가 측정 각도에서 벗어나면 영상 화질이 심각하게 저하되는 것을 알 수 있으며, 이는 누락된 원뿔 문제의 결정적인 영향일 수 있다. 반면, 본 발명의 방법인 TomoGAN은 투영 뷰의 해상도가 크게 향상되어 모든 각도에서 셀을 명확하게 관찰할 수 있다.As shown in FIG. 6 , it can be seen that the existing methods TV, GP, and Rytov significantly degrade the image quality when the projection angle deviates from a specific angle, that is, when the projection angle deviates from the measurement angle. It can be a decisive influence. On the other hand, the TomoGAN method of the present invention greatly improves the resolution of the projection view, so that the cell can be observed clearly from all angles.

나아가, 본 발명의 방법은 도 6의 개선된 투영 데이터를 이용하여, 재구성된 RI 분포의 심층 분석(in-depth analysis)을 위해 FBP를 사용함으로써, 3차원 재구성을 수행할 수 있다.Furthermore, the method of the present invention may perform three-dimensional reconstruction by using the FBP for in-depth analysis of the reconstructed RI distribution using the improved projection data of FIG. 6 .

도 7은 기존의 방법들과 본 발명의 방법에 의해 재구성된 3차원 렌더링에 대한 일 예시도를 나타낸 것으로, 재구성된 셀 분포와 셀 분포의 컷뷰의 3D 렌더링을 나타낸 것이며, 컷뷰 각각은 y-z 평면, x-y 평면과 x-z 평면 각각을 나타낸 것이다. 여기서, 컷뷰는 더 높은 RI 값과 함께 우수한 해상도의 영상을 보여준다.7 shows an exemplary diagram of a 3D rendering reconstructed by the existing methods and the method of the present invention, and shows a 3D rendering of a reconstructed cell distribution and a cut view of the cell distribution, and each cut view is a yz plane, The xy plane and the xz plane are shown respectively. Here, the cut view shows an image of excellent resolution with a higher RI value.

도 7을 통해 알 수 있듯이, Rytov와 TV를 이용한 재구성의 경우 해상도가 만족도에 훨씬 못 미친 것을 알 수 있다. 특히, 도 7c에 도시된 TV 재구성은 셀의 실제 질감을 포착하지 못하는 만화 같은 모습을 보이고 있고, 도 7b에 도시된 GP 재구성을 통해 더 많은 세부 정보를 보존하면서 고해상도를 달성할 수 있다. 하지만, 이 해상도는 여전히 기준에 미치지 못하며, 더욱이 컷뷰 RI 분포를 시각화하면 y-z 평면과 x-z 평면의 영상은 해상도가 매우 낮은 것을 알 수 있다. 반면, 본 발명의 방법(TomoGAN)을 통해 재구성은 모든 각도에서 고해상도 뷰를 보이며, 컷뷰 또한 세 평면에서 모두 우수한 결과를 보이는 것을 알 수 있다. 즉, 본 발명의 방법은 RI 값 과소평가 문제가 해결되었음을 알 수 있다.As can be seen from FIG. 7 , in the case of reconstruction using Rytov and TV, it can be seen that the resolution fell far short of the satisfaction level. In particular, the TV reconstruction shown in Fig. 7c has a cartoon-like appearance that does not capture the actual texture of the cell, and the GP reconstruction shown in Fig. 7b can achieve high resolution while preserving more details. However, this resolution still does not meet the standard, and furthermore, when the cutview RI distribution is visualized, it can be seen that the resolution of the y-z plane and x-z plane images is very low. On the other hand, it can be seen that the reconstruction through the method of the present invention (TomoGAN) shows a high-resolution view from all angles, and the cut view also shows excellent results in all three planes. That is, it can be seen that the method of the present invention solves the problem of underestimating the RI value.

결론적으로, 본 발명의 방법은 ODT에서 누락된 원뿔 문제를 완전히 해결할 수 있으며, 이러한 본 발명의 방법은 초기 GP 재구성을 사용하여 투영 뷰를 생성하는데, 투영 분포를 개선시키고, 투영 후 단순 필터보정역투영을 통해 3D RI 분포를 재구성할 수 있다. In conclusion, the method of the present invention can completely solve the problem of missing cones in ODT, and this method of the present invention uses the initial GP reconstruction to generate a projection view, which improves the projection distribution, and provides a simple filter correction after projection. Through projection, the 3D RI distribution can be reconstructed.

이와 같이, 본 발명의 실시예에 따른 방법은 비지도 학습 기반의 뉴럴 네트워크를 이용하여 단층촬영영상의 누락된 원뿔 아티팩트(missing cone artifacts)를 제거함으로써, 고화질의 단층촬영영상을 생성할 수 있다.As such, the method according to an embodiment of the present invention can generate a high-quality tomography image by removing missing cone artifacts of the tomography image using an unsupervised learning-based neural network.

또한, 본 발명의 실시예에 따른 방법은 모든 분야의 단층촬영영상에서 이용이 가능한 일반적인 알고리즘이기에, 단층촬영영상 기술을 이용하는 모든 분야에 적용할 수 있고, 특히, 정답 영상을 모르는 경우에도 이용할 수 있는 비지도학습 기반이기 때문에 다양한 분야에 적용될 수 있다. 즉, 본 발명의 방법은 나노스케일 입자나 세포의 물리화학적 성질을 밝히기 위해 이용되는 광학회절 단층영상(Optical Diffraction Tomography)과 광학 간섭성 회절기술(Optical Coherence Tomography), 그리고 전자현미경 영상과 의료에 이용되는 엑스레이 단층촬영 영상 개선까지 단층촬영영상의 모든 분야에 적용될 수 있다. 예를 들어, 광학회절 단층영상에서는 적은 갯수의 홀로그램(hologram) 영상으로도 보이지 않던 부분을 본 발명을 통해 높은 해상도로 복원할 수 있으며, 일반적인 단층촬영 영상에서는 매우 적은 투사 영역 갯수만을 이용하여 높은 해상도의 3차원 영상을 복원할 수도 있다. 이를 통해, 물리적인 한계로 보이지 않던 부분을 높은 질로 복원할 수 있고, 기존에 느린 속도로 얻는 영상을 가속화할 수도 있다.In addition, since the method according to an embodiment of the present invention is a general algorithm that can be used in tomography images in all fields, it can be applied to all fields using tomography imaging technology, and in particular, can be used even when the correct answer image is unknown. Because it is based on unsupervised learning, it can be applied to various fields. That is, the method of the present invention is used for optical diffraction tomography and optical coherence tomography used to reveal the physicochemical properties of nanoscale particles or cells, and electron microscopic images and medical applications. It can be applied to all fields of tomography imaging, up to the improvement of X-ray tomography images. For example, in an optical diffraction tomography image, a portion that was not visible even with a small number of hologram images can be restored with high resolution through the present invention. It is also possible to reconstruct a 3D image of In this way, it is possible to restore a part that was not seen due to a physical limitation with high quality, and it is also possible to accelerate an image obtained at a low speed.

도 8은 본 발명의 일 실시예에 따른 단층촬영영상 처리 장치에 대한 구성을 나타낸 것으로, 도 1 내지 도 7의 방법을 수행하는 장치에 대한 개념적인 구성을 나타낸 것이다.8 shows the configuration of a tomography image processing apparatus according to an embodiment of the present invention, and shows a conceptual configuration of an apparatus for performing the method of FIGS. 1 to 7 .

도 8을 참조하면, 본 발명의 일 실시예에 따른 장치(800)는 수신부(810), 생성부(820)와 재구성부(830)를 포함한다.Referring to FIG. 8 , an apparatus 800 according to an embodiment of the present invention includes a receiving unit 810 , a generating unit 820 , and a reconfiguration unit 830 .

수신부(810)는 단층촬영영상을 수신한다.The receiver 810 receives a tomography image.

여기서, 수신부(810)는 광학회절 단층촬영영상에 대한 투영 영상들일 수 있으며, 이러한 투영 영상들은 고화질의 투영 영상 뿐만 아니라 누락된 원뿔 아티팩트를 포함하는 투영 영상들을 포함할 수 있다.Here, the receiver 810 may be projection images of the optical diffraction tomography image, and these projection images may include not only high-quality projection images but also projection images including missing cone artifacts.

생성부(820)는 최적 운송 이론에 기초하여 생성된 비지도 학습 기반의 뉴럴 네트워크를 이용하여 수신된 투영 영상들에서 누락된 원뿔 아티팩트를 제거함으로써, 누락된 원뿔 아티팩트가 제거된 고화질의 투영 영상들을 생성한다.The generator 820 removes the missing cone artifact from the received projection images using an unsupervised learning-based neural network generated based on the optimal transport theory, thereby generating high-quality projection images from which the missing cone artifact has been removed. create

여기서, 뉴럴 네트워크는 비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습될 수 있으며, 제1 투영 영상을 입력으로 제1 투영 영상을 누락된 원뿔 아티팩트가 제거된 제2 투영 영상으로 변환하는 제1 뉴럴 네트워크, 제2 투영 영상을 입력으로 제2 투영 영상을 누락된 원뿔 아티팩트가 포함된 제3 투영 영상으로 변환하는 제2 뉴럴 네트워크, 제1 투영 영상과 제3 투영 영상을 구별하는 제3 뉴럴 네트워크와 제2 투영 영상과 제2 투영 영상에 대응하는 실제 영상을 구별하는 제4 뉴럴 네트워크를 이용하여 본 발명의 뉴럴 네트워크를 학습할 수 있다. 본 발명의 뉴럴 네트워크는 투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습될 수 있다. 예를 들어, 뉴럴 네트워크는 제1 투영 영상과 제3 투영 영상 간의 순환 손실(cyclic loss) 및 제2 투영 영상과 실제 영상 간의 적대 손실(adversarial loss)에 기초하여 비지도 학습될 수 있다.Here, the neural network may be trained using a training data set including non-matching data, and the first projection image is input to convert the first projection image into a second projection image from which the missing cone artifact is removed. a neural network, a second neural network for converting a second projection image to a third projection image including a missing cone artifact by inputting the second projection image, a third neural network for discriminating the first projection image from the third projection image The neural network of the present invention may be learned by using a fourth neural network for discriminating the second projection image and the real image corresponding to the second projection image. The neural network of the present invention may be trained based on predefined cyclic loss and adversarial loss with respect to the projection image and the projection image from which the missing cone artifact is removed. For example, the neural network may be trained unsupervised based on a cyclic loss between the first projection image and the third projection image and an adversarial loss between the second projection image and the real image.

이 때, 뉴럴 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크 및 풀링 레이어와 언풀링 레이어를 포함하는 뉴럴 네트워크 중 어느 하나의 뉴럴 네트워크를 포함할 수 있다.In this case, the neural network may include any one of a convolution framelet-based neural network and a neural network including a pooling layer and an unpooling layer.

재구성부(830)는 누락된 원뿔 아티팩트가 제거된 투영 영상들을 이용한 필터보정역투영(FBP)을 통해 고화질의 3차원 단층촬영영상을 재구성한다.The reconstruction unit 830 reconstructs a high-quality 3D tomography image through filter-corrected inverse projection (FBP) using the projection images from which the missing cone artifact is removed.

비록, 도 8의 장치에서 그 설명이 생략되었더라도, 도 8을 구성하는 각 구성 수단은 도 1 내지 도 7에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description of the device of FIG. 8 is omitted, each component constituting FIG. 8 may include all the contents described in FIGS. 1 to 7 , which is apparent to those skilled in the art.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다.  또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.  이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다.  예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다.  또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.  소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다.  소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or apparatus, to be interpreted by or to provide instructions or data to the processing device. may be embodied in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다.  상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.  상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.  컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.  프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.  The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다.  예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible from the above description by those skilled in the art. For example, the described techniques are performed in an order different from the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (17)

단층촬영영상을 수신하는 단계; 및
최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 상기 단층촬영영상에서 누락된 원뿔 아티팩트를 제거함으로써, 상기 누락된 원뿔 아티팩트가 제거된 투영 영상들을 생성하는 단계
를 포함하는 단층촬영영상 처리 방법.
receiving a tomography image; and
By removing the missing cone artifact from the tomography image using an unsupervised learning-based neural network generated based on the optimal transport theory, the projected images from which the missing cone artifact has been removed steps to create
A tomography image processing method comprising a.
제1항에 있어서,
상기 수신하는 단계는
광학회절 단층촬영영상에 대한 투영 영상들을 수신하고,
상기 생성하는 단계는
상기 뉴럴 네트워크를 이용하여 상기 투영 영상들에 포함된 상기 누락된 원뿔 아티팩트를 제거함으로써, 고해상도의 투영 영상들을 생성하는 것을 특징으로 하는 단층촬영영상 처리 방법.
According to claim 1,
The receiving step
Receive projection images for the optical diffraction tomography image,
The generating step is
and generating high-resolution projection images by removing the missing cone artifact included in the projection images using the neural network.
제1항에 있어서,
상기 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 3차원 단층촬영영상을 재구성하는 단계
를 더 포함하는 것을 특징으로 하는 단층촬영영상 처리 방법.
According to claim 1,
Reconstructing a 3D tomography image through filtered backprojection (FBP) using the generated projection images
Tomography image processing method, characterized in that it further comprises.
제1항에 있어서,
상기 뉴럴 네트워크는
비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습되는 것을 특징으로 하는 단층촬영영상 처리 방법.
According to claim 1,
The neural network is
A tomography image processing method, characterized in that it is learned using a training data set including non-matching data.
제1항에 있어서,
상기 뉴럴 네트워크는
제1 투영 영상을 입력으로 상기 제1 투영 영상을 상기 누락된 원뿔 아티팩트가 제거된 제2 투영 영상으로 변환하는 제1 뉴럴 네트워크;
상기 제2 투영 영상을 입력으로 상기 제2 투영 영상을 상기 누락된 원뿔 아티팩트가 포함된 제3 투영 영상으로 변환하는 제2 뉴럴 네트워크;
상기 제1 투영 영상과 상기 제3 투영 영상을 구별하는 제3 뉴럴 네트워크; 및
상기 제2 투영 영상과 상기 제2 투영 영상에 대응하는 실제 영상을 구별하는 제4 뉴럴 네트워크
를 포함하는 것을 특징으로 하는 단층촬영영상 처리 방법.
According to claim 1,
The neural network is
a first neural network for converting the first projection image into a second projection image from which the missing cone artifact is removed by receiving a first projection image;
a second neural network that receives the second projection image as an input and converts the second projection image into a third projection image including the missing cone artifact;
a third neural network for discriminating the first projection image and the third projection image; and
a fourth neural network for discriminating the second projection image and a real image corresponding to the second projection image
A tomography image processing method comprising a.
제5항에 있어서,
상기 뉴럴 네트워크는
상기 제1 투영 영상과 상기 제3 투영 영상 간의 순환 손실(cyclic loss) 및 상기 제2 투영 영상과 상기 실제 영상 간의 적대 손실(adversarial loss)에 기초하여 비지도 학습되는 것을 특징으로 하는 단층촬영영상 처리 방법.
6. The method of claim 5,
The neural network is
tomography image processing, characterized in that unsupervised learning is performed based on a cyclic loss between the first projection image and the third projection image and an adversarial loss between the second projection image and the real image method.
제1항에 있어서,
상기 뉴럴 네트워크는
투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습되는 것을 특징으로 하는 단층촬영영상 처리 방법.
According to claim 1,
The neural network is
A tomographic image processing method, characterized in that the projection image and the projection image from which the missing cone artifact is removed are learned based on predefined cyclic loss and adversarial loss.
제1항에 있어서,
상기 뉴럴 네트워크는
컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크 및 풀링 레이어와 언풀링 레이어를 포함하는 뉴럴 네트워크 중 어느 하나의 뉴럴 네트워크를 포함하는 것을 특징으로 하는 단층촬영영상 처리 방법.
According to claim 1,
The neural network is
A tomographic image processing method, comprising: any one of a convolution framelet-based neural network and a neural network including a pooling layer and an unpooling layer.
단층촬영영상을 수신하는 단계;
최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 상기 단층촬영영상에서 누락된 원뿔 아티팩트를 제거함으로써, 상기 누락된 원뿔 아티팩트가 제거된 투영 영상들을 생성하는 단계; 및
상기 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 3차원 단층촬영영상을 재구성하는 단계
를 포함하는 단층촬영영상 처리 방법.
receiving a tomography image;
By removing the missing cone artifact from the tomography image using an unsupervised learning-based neural network generated based on the optimal transport theory, the projected images from which the missing cone artifact has been removed generating; and
Reconstructing a 3D tomography image through filtered backprojection (FBP) using the generated projection images
A tomography image processing method comprising a.
단층촬영영상을 수신하는 수신부; 및
최적 운송(optimal transport) 이론에 기초하여 생성된 비지도 학습(unsupervised learning) 기반의 뉴럴 네트워크를 이용하여 상기 단층촬영영상에서 누락된 원뿔 아티팩트를 제거함으로써, 상기 누락된 원뿔 아티팩트가 제거된 투영 영상들을 생성하는 생성부
를 포함하는 단층촬영영상 처리 방법.
a receiver for receiving a tomography image; and
By removing the missing cone artifact from the tomography image using an unsupervised learning-based neural network generated based on the optimal transport theory, the projected images from which the missing cone artifact has been removed generating unit
A tomography image processing method comprising a.
제10항에 있어서,
상기 수신부는
광학회절 단층촬영영상에 대한 투영 영상들을 수신하고,
상기 생성부는
상기 뉴럴 네트워크를 이용하여 상기 투영 영상들에 포함된 상기 누락된 원뿔 아티팩트를 제거함으로써, 고해상도의 투영 영상들을 생성하는 것을 특징으로 하는 단층촬영영상 처리 장치.
11. The method of claim 10,
the receiving unit
Receive projection images for the optical diffraction tomography image,
the generating unit
The tomography image processing apparatus of claim 1, wherein the high-resolution projection images are generated by removing the missing cone artifact included in the projection images using the neural network.
제10항에 있어서,
상기 생성된 투영 영상들을 이용한 필터보정역투영(FBP; filtered backprojection)을 통해 3차원 단층촬영영상을 재구성하는 재구성부
를 더 포함하는 것을 특징으로 하는 단층촬영영상 처리 장치.
11. The method of claim 10,
A reconstruction unit that reconstructs a 3D tomography image through filtered backprojection (FBP) using the generated projection images
A tomography image processing apparatus further comprising a.
제10항에 있어서,
상기 뉴럴 네트워크는
비매칭 데이터를 포함하는 트레이닝 데이터 세트를 이용하여 학습되는 것을 특징으로 하는 단층촬영영상 처리 장치.
11. The method of claim 10,
The neural network is
A tomography image processing apparatus, characterized in that it is learned using a training data set including non-matching data.
제10항에 있어서,
상기 뉴럴 네트워크는
제1 투영 영상을 입력으로 상기 제1 투영 영상을 상기 누락된 원뿔 아티팩트가 제거된 제2 투영 영상으로 변환하는 제1 뉴럴 네트워크;
상기 제2 투영 영상을 입력으로 상기 제2 투영 영상을 상기 누락된 원뿔 아티팩트가 포함된 제3 투영 영상으로 변환하는 제2 뉴럴 네트워크;
상기 제1 투영 영상과 상기 제3 투영 영상을 구별하는 제3 뉴럴 네트워크; 및
상기 제2 투영 영상과 상기 제2 투영 영상에 대응하는 실제 영상을 구별하는 제4 뉴럴 네트워크
를 포함하는 것을 특징으로 하는 단층촬영영상 처리 장치.
11. The method of claim 10,
The neural network is
a first neural network for converting the first projection image into a second projection image from which the missing cone artifact is removed by receiving a first projection image;
a second neural network that receives the second projection image as an input and converts the second projection image into a third projection image including the missing cone artifact;
a third neural network for discriminating the first projection image and the third projection image; and
a fourth neural network for discriminating the second projection image and a real image corresponding to the second projection image
A tomography image processing apparatus comprising a.
제14항에 있어서,
상기 뉴럴 네트워크는
상기 제1 투영 영상과 상기 제3 투영 영상 간의 순환 손실(cyclic loss) 및 상기 제2 투영 영상과 상기 실제 영상 간의 적대 손실(adversarial loss)에 기초하여 비지도 학습되는 것을 특징으로 하는 단층촬영영상 처리 장치.
15. The method of claim 14,
The neural network is
tomography image processing, characterized in that unsupervised learning is performed based on a cyclic loss between the first projection image and the third projection image and an adversarial loss between the second projection image and the real image Device.
제10항에 있어서,
상기 뉴럴 네트워크는
투영 영상과 누락된 원뿔 아티팩트가 제거된 투영 영상에 대하여, 미리 정의된 사이클 손실(cyclic loss) 및 적대 손실(adversarial loss)에 기초하여 학습되는 것을 특징으로 하는 단층촬영영상 처리 장치.
11. The method of claim 10,
The neural network is
A tomography image processing apparatus, characterized in that the projection image and the projection image from which the missing cone artifact is removed are learned based on predefined cyclic loss and adversarial loss.
제10항에 있어서,
상기 뉴럴 네트워크는
컨볼루션 프레임렛(convolution framelet) 기반의 뉴럴 네트워크 및 풀링 레이어와 언풀링 레이어를 포함하는 뉴럴 네트워크 중 어느 하나의 뉴럴 네트워크를 포함하는 것을 특징으로 하는 단층촬영영상 처리 장치.
11. The method of claim 10,
The neural network is
A tomography image processing apparatus, comprising: any one of a convolution framelet-based neural network and a neural network including a pooling layer and an unpooling layer.
KR1020200162068A 2020-08-13 2020-11-27 Tomography image processing method using neural network based on unsupervised learning to remove missing cone artifacts and apparatus therefor KR102591860B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200101587 2020-08-13
KR1020200101587 2020-08-13

Publications (2)

Publication Number Publication Date
KR20220021368A true KR20220021368A (en) 2022-02-22
KR102591860B1 KR102591860B1 (en) 2023-10-24

Family

ID=80494327

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200162068A KR102591860B1 (en) 2020-08-13 2020-11-27 Tomography image processing method using neural network based on unsupervised learning to remove missing cone artifacts and apparatus therefor

Country Status (1)

Country Link
KR (1) KR102591860B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049753A (en) * 2022-05-13 2022-09-13 沈阳铸造研究所有限公司 Cone beam CT artifact correction method based on unsupervised deep learning
CN115049753B (en) * 2022-05-13 2024-05-10 沈阳铸造研究所有限公司 Cone beam CT artifact correction method based on unsupervised deep learning

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190135618A (en) * 2018-05-29 2019-12-09 한국과학기술원 Method for processing interior computed tomography image using artificial neural network and apparatus therefor
KR20200025179A (en) * 2018-08-29 2020-03-10 한국과학기술원 Methoed for removing ghost artifact of echo planar imaging by using neural network and apparatus therefor
KR20200027660A (en) * 2018-09-05 2020-03-13 주식회사 실리콘사피엔스 Method and system for automatic segmentation of vessels in medical images using machine learning and image processing algorithm

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190135618A (en) * 2018-05-29 2019-12-09 한국과학기술원 Method for processing interior computed tomography image using artificial neural network and apparatus therefor
KR20200025179A (en) * 2018-08-29 2020-03-10 한국과학기술원 Methoed for removing ghost artifact of echo planar imaging by using neural network and apparatus therefor
KR20200027660A (en) * 2018-09-05 2020-03-13 주식회사 실리콘사피엔스 Method and system for automatic segmentation of vessels in medical images using machine learning and image processing algorithm

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Byeongsu, et al., "OPTIMAL TRANSPORT, CYCLEGAN, AND PENALIZED LS FOR UNSUPERVISED LEARNING IN INVERSE PROBLEMS", arXiv:1909.12116v1 [cs.CV](2019.09.25.)* *
Byeongsu, et al., "Optimal Transport, CycleGAN, and Penalized LS for Unsupervised Learning in Inverse Problems", https://arxiv.org/abs/1909.12116v3 (2020.07.06.)* *
Chen, Liqun, et al., Improving sequence-to-sequence learning via optimal transport, arXiv preprint arXiv:1901.06283(2019.01.18.)* *
Dashan, et al., "Solving the missing cone problem by deep learning", Advanced Photonics, vol.2(2) (2020.04.)* *
Du Muge, et al., Reduction of metal artefacts in CT with Cycle-GAN, 2018 IEEE Nuclear Science Symposium and Medical Imaging Conference Proceedings(2018)* *
Sungjun, et al., "CycleGAN with a Blur Kernel for DeconvolutionMicroscopy: Optimal Transport Geometry", arXiv:1908.09414v3 [eess.IV](2020.07.08.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049753A (en) * 2022-05-13 2022-09-13 沈阳铸造研究所有限公司 Cone beam CT artifact correction method based on unsupervised deep learning
CN115049753B (en) * 2022-05-13 2024-05-10 沈阳铸造研究所有限公司 Cone beam CT artifact correction method based on unsupervised deep learning

Also Published As

Publication number Publication date
KR102591860B1 (en) 2023-10-24

Similar Documents

Publication Publication Date Title
Anirudh et al. Lose the views: Limited angle CT reconstruction via implicit sinogram completion
US11610346B2 (en) Image reconstruction using machine learning regularizers
CN110660123B (en) Three-dimensional CT image reconstruction method and device based on neural network and storage medium
WO2019128660A1 (en) Method and device for training neural network, image processing method and device and storage medium
KR20120138256A (en) High efficiency computed tomography
CN103608825A (en) Method to determine pixon map in iterative image reconstruction
Chung et al. Missing cone artifact removal in ODT using unsupervised deep learning in the projection domain
Ye et al. Unified supervised-unsupervised (super) learning for x-ray ct image reconstruction
Liu et al. Tomogan: Low-dose x-ray tomography with generative adversarial networks
EP1964055A1 (en) Advanced convergence for multiple iterative algorithm
KR102591860B1 (en) Tomography image processing method using neural network based on unsupervised learning to remove missing cone artifacts and apparatus therefor
WO2013005455A1 (en) Shape extraction method and shape extraction system
Vintache et al. Iterative reconstruction for transmission tomography on GPU using Nvidia CUDA
Sunnegårdh Iterative filtered backprojection methods for helical cone-beam CT
DE102021132981A1 (en) THREE-DIMENSIONAL TOMOGRAPHY RECONSTRUCTION PIPELINE
CA2955331C (en) Extended field iterative reconstruction technique (efirt) for correlated noise removal
Maas et al. Nerf for 3d reconstruction from x-ray angiography: Possibilities and limitations
Anoshina et al. A method for generation of synthetic 2D and 3D cryo-EM images
Nakano et al. Molecular size dependence on achievable resolution from XFEL single-particle 3D reconstruction
Russ et al. Fast CBCT reconstruction using convolutional neural networks for arbitrary robotic C-arm orbits
Brooks A survey of algebraic algorithms in computerized tomography
EP4075126A1 (en) Phase retrieval in electron microscopy
Xie et al. Joint reconstruction and calibration using regularization by denoising
US20230360366A1 (en) Visual Explanation of Classification
Dillon et al. Imaging with Rays: Microscopy, Medical Imaging, and Computer Vision

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant