KR20220144668A - Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network - Google Patents

Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network Download PDF

Info

Publication number
KR20220144668A
KR20220144668A KR1020210051285A KR20210051285A KR20220144668A KR 20220144668 A KR20220144668 A KR 20220144668A KR 1020210051285 A KR1020210051285 A KR 1020210051285A KR 20210051285 A KR20210051285 A KR 20210051285A KR 20220144668 A KR20220144668 A KR 20220144668A
Authority
KR
South Korea
Prior art keywords
image
level wavelet
artificial intelligence
sparse
view
Prior art date
Application number
KR1020210051285A
Other languages
Korean (ko)
Other versions
KR102553068B1 (en
Inventor
이동훈
이민재
이보배
권정민
진효정
Original Assignee
연세대학교 원주산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 원주산학협력단 filed Critical 연세대학교 원주산학협력단
Priority to KR1020210051285A priority Critical patent/KR102553068B1/en
Publication of KR20220144668A publication Critical patent/KR20220144668A/en
Application granted granted Critical
Publication of KR102553068B1 publication Critical patent/KR102553068B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

A computed tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence is disclosed. The computerized tomography image reconstruction method for correcting artifacts in a computed tomography image of the present invention includes the steps of: acquiring a low-density CT image (sparse-view CT image); correcting and acquiring directional streak artifacts by inputting the sparse-view CT image to an artificial intelligence learning network of a multi-level wavelet-based U-Net structure; and removing the streak artifacts by subtracting the streak artifact image from the low-density imaging CT image (sparse-view CT image). A sparse-view method can remove linear patterns that occur when acquiring CT images, and thus it is possible to enhance diagnostic efficiency.

Description

다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법{SPARSE-VIEW CT RECONSTRUCTION BASED ON MULTI-LEVEL WAVELET CONVOLUTIONAL NEURAL NETWORK}A computerized tomography image reconstruction method for multi-level wavelet AI-based dose reduction {SPARSE-VIEW CT RECONSTRUCTION BASED ON MULTI-LEVEL WAVELET CONVOLUTIONAL NEURAL NETWORK}

본 발명은 컴퓨터 단층영상 재구성 방법에 관한 것으로, 보다 상세하게는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 이용하여 학습을 시킨 뒤 줄 인공물과 같은 직선성 패턴(Streaking artifacts)이 제거된 sparse-view CT 영상을 재구성하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 관한 것이다.The present invention relates to a computerized tomography image reconstruction method, and more particularly, after learning using an artificial intelligence learning network of a multi-level wavelet-based U-Net structure, linearity patterns such as line artifacts are removed. A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence that reconstructs sparse-view CT images.

현대 의학에서, 질병의 정확한 진단뿐만 아니라 치료 중의 효율을 높이거나 예후를 판단하는 데까지 CT의 활용이 급증하였다. 특히 평판형 X선 검출기 기술 발달에 힘입어 소위 콘빔 CT라 불리는 시스템의 응용이 눈에 띄게 증가하였다. In modern medicine, the use of CT has rapidly increased not only for accurate diagnosis of diseases, but also for improving efficiency during treatment or determining prognosis. In particular, thanks to the development of flat-panel X-ray detector technology, the application of the so-called cone-beam CT system has significantly increased.

이러한 컴퓨터 단층촬영(Computed Tomography: CT)은 비침습적으로 고해상도 인체 단면 영상을 획득하여 뼈와 장기, 혈관 등 인체 내부 조직을 관찰하는데 유용한 의료영상 기법이다.Computed tomography (CT) is a useful medical imaging technique for non-invasively acquiring high-resolution cross-sectional images of the human body and observing internal tissues of the human body, such as bones, organs, and blood vessels.

과다한 CT 스캔이나 부주의한 CT 스캔 프로토콜 관리로 인하여, X선의 침습적 특성상 잠재적인 건강의 위험이 있을 수 있음이 보고되면서 의료계뿐만 아니라 일반 대중에도 CT 스캔에 따른 피폭 선량 문제가 큰 이슈가 되고 있다.Due to excessive CT scans or careless CT scan protocol management, it has been reported that there may be potential health risks due to the invasive nature of X-rays.

방사선 조사량을 줄이는 방안으로는 물리적으로 엑스선 조사선량을 줄이는 저선량(low-dose) 조사 방식과 엑스선 방사 횟수를 줄이는 희소 샘플링(sparsely sampled) 방식이 제안되었다. 그리고 희소 샘플링된 CT 데이터로부터 재구성된 영상에 첨가된 앨리어싱 아티팩트(aliasing artifact)를 줄이고자 하는 다양한 연구가 진행되었다.As a method of reducing the radiation dose, a low-dose irradiation method that physically reduces the X-ray radiation dose and a sparsely sampled method that reduces the number of X-ray radiation have been proposed. In addition, various studies have been conducted to reduce aliasing artifacts added to images reconstructed from sparsely sampled CT data.

Sparse-view CT는 방사선 노출 빈도를 줄여 환자에게 발생되는 피폭선량을 낮출 수 있는 가장 간단한 방법이다.Sparse-view CT is the simplest method to reduce the radiation exposure frequency and thereby lower the exposure dose to the patient.

하지만, 노출 빈도를 줄이게 되면 환자에 투과되는 방사선량의 정보가 부족하여 영상을 받아들이는 신호부의 정보 손실이 발생된다. 이러한 정보손실은 영상의 진단이나 판독에 큰 문제를 줄 수 있을 뿐만 아니라, 또한 부족한 신호 및 정보로 영상을 재구성하였을 때 방향성을 가지는 영상 인공물을 초래할 수 있다.However, if the exposure frequency is reduced, information on the amount of radiation transmitted to the patient is insufficient, and thus information loss occurs in the signal unit for receiving the image. Such information loss may cause a major problem in diagnosis or reading of an image, and may also lead to image artifacts having directionality when an image is reconstructed with insufficient signals and information.

즉, 희소 뷰 CT에서의 불충분한 프로젝션 뷰는 필터링-역투영(filtered-backprojection, FBP) 재구성에서 진단에 영향을 미칠 정도의 심한 인공물(streaking artifacts)을 생성하게 된다. That is, an insufficient projection view in the sparse view CT generates streaking artifacts that are severe enough to affect the diagnosis in the filtered-backprojection (FBP) reconstruction.

이에 발생된 인공물을 제거하고 손실된 정보를 보정하기 위한 구체적 방법이 필요하다.There is a need for a specific method for removing the artifacts generated by this and correcting the lost information.

이러한 영상의 인공물을 제거하기 위해서 보간법(Interpolation), 진보적인 영상 재구성 방법(예:adaptive-steepest-descent-projection-onto-convex-sets(ASD-POCS), Compressed sensing (CS))을 사용되고 있으나 복잡한 구조를 가지는 인공물을 정확하게 찾아서 보정하는 과정이 쉽지 않으며 정확한 영상을 복원하는데 한계가 있다.To remove these image artifacts, interpolation and advanced image reconstruction methods (eg, adaptive-steepest-descent-projection-onto-convex-sets (ASD-POCS), Compressed sensing (CS)) are used, but complex The process of accurately finding and correcting an artifact having a structure is not easy, and there is a limit in restoring an accurate image.

또한, 반복적 재구성 방법이므로 영상의 재구성의 시간이 상대적으로 크게 된다는 문제점이 있다.In addition, since it is an iterative reconstruction method, there is a problem in that the time for image reconstruction is relatively large.

KR 공개특허공보 제10-2019-0102770호(2019.09.04)KR Patent Publication No. 10-2019-0102770 (2019.09.04)

이러한 문제점을 해결하기 위한 본 발명은 인공 신경망을 활용하여 보다 정확하고 편리하게 영상의 직선성 패턴(Streaking artifacts)을 제거할 수 있는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 목적으로 한다.The present invention to solve this problem is a computerized tomography image reconstruction method for dose reduction based on artificial intelligence based on multi-level wavelets that can more accurately and conveniently remove streaking artifacts of an image by using an artificial neural network. aims to provide

또한, 본 발명은 고 선량으로 획득된 영상을 사이노그램(Full projections)에서 다운 샘플링하여 sparse-view CT 영상을 재구성하는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 이용하여 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention uses an artificial intelligence learning network of a multi-level wavelet-based U-Net structure that downsamples images acquired at high doses from sinograms (Full projections) and reconstructs sparse-view CT images to reduce the dose. Another object of the present invention is to provide a computerized tomography image reconstruction method for impression.

또한, 본 발명은 슬라이스당 0.4~0.5초로 시간적으로 높은 효율을 갖는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 또 다른 목적으로 한다. In addition, another object of the present invention is to provide a computerized tomography image reconstruction method for dose reduction based on multi-level wavelet AI, which has high temporal efficiency at 0.4 to 0.5 seconds per slice.

그리고 본 발명은 DWT, IWT를 활용하고, 인공 신경망을 통해서 영상을 훈련시켜 인공물을 보정하여 원래 영상이 가지고 있는 정보를 이용하며 해상력을 유지시킬 수 있는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 또 다른 목적으로 한다. In addition, the present invention utilizes DWT and IWT, trains an image through an artificial neural network, corrects artifacts, uses the information of the original image, and can maintain resolution based on multi-level wavelet AI for dose reduction. It is another object to provide a computerized tomography image reconstruction method.

이러한 과제를 해결하기 위한 본 발명의 일실시예에 의한 전산화 단층촬영(computed tomography) 영상의 인공물을 보정하기 위한 컴퓨터 단층영상 재구성 방법은, (a)저밀도 촬영 CT 영상(sparse-view CT 영상)을 획득하는 단계, (b)상기 sparse-view CT 영상을 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크에 입력하여 방향성인 직선성 패턴(Streaking artifacts)을 보정하여 획득하는 단계, 및 (c)상기 저밀도 촬영 CT 영상(sparse-view CT 영상)에서 상기 줄 인공물 영상을 마이너스하여 줄 인공물을 제거하는 단계를 포함하게 구성함으로써 달성될 수 있다.A computerized tomography image reconstruction method for correcting artifacts in a computed tomography image according to an embodiment of the present invention for solving these problems is (a) a low-density CT image (sparse-view CT image) acquiring, (b) inputting the sparse-view CT image into an artificial intelligence learning network of a multi-level wavelet-based U-Net structure to correct directional streaking artifacts to acquire, and (c) ) It can be achieved by configuring including the step of removing the line artefact by subtracting the line artefact image from the low-density imaging CT image (sparse-view CT image).

또한, (b)단계는 (b-1)고선량으로 획득된 CT 영상을 사이노그램(Full projection)에서 다운 샘플링하여 저밀도 촬영 CT 영상(sparse-view CT 영상)으로 재구성하는 단계와, (b-2)상기 (b-1)단계에서 획득된 sparse-view CT 영상을 상기 원본 영상에서 마이너스하여 방향성을 갖는 영상인 직선성 패턴(Streaking artifacts)을 획득하는 단계, 및 (b-3)상기 (b-2)단계에서 획득된 영상을 출력값으로 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 통해서 학습된 조건에 따라서 줄 인공물 영상을 추출하는 단계를 포함하게 구성할 수도 있다.In addition, step (b) includes the steps of (b-1) down-sampling the CT image obtained at a high dose from a sinogram (full projection) and reconstructing it into a low-density CT image (sparse-view CT image), (b) -2) obtaining linearity patterns (streaking artifacts) that are directional images by subtracting the sparse-view CT image obtained in step (b-1) from the original image, and (b-3) the ( Using the image obtained in step b-2) as an output value, it may be configured to include the step of extracting the line artefact image according to the condition learned through the artificial intelligence learning network of the multi-level wavelet-based U-Net structure.

또한, 상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 상기 (b)단계에서 발생한 직선성 패턴(Streaking artifacts)을 노이즈 제거 CNN(Convolutional Neural Network)과 이산웨이브렛변환(DWT;discrete wavelet transform), 그리고 역웨이브렛 변환(IWT;Inverse wavelet transform)을 이용하여 학습되게 구성한다.In addition, the artificial intelligence learning network of the multi-level wavelet-based U-Net structure removes noise from the linearity pattern (streaking artifacts) generated in step (b) with a convolutional neural network (CNN) and discrete wavelet transform (DWT; discrete). It is configured to be learned using wavelet transform) and inverse wavelet transform (IWT).

또한, 상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 CNN과 DWT 그리고 IWT를 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴(Streaking artifacts)의 특징들을 학습할 수 있다.In addition, the multi-level wavelet-based U-Net structure of the artificial intelligence learning network can learn features of streaking artifacts appearing in sparse-view CT images using CNN, DWT, and IWT.

또한, 상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 수학적 해석을 통해 상기 프레임 조건을 만족하는 상기 학습 모델을 생성하고, 상기 학습 모델에 의해 학습된 뉴럴 네트워크를 포함할 수 있으며, 풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 다중 해상도 뉴럴 네트워크를 포함할 수 있다.In addition, the multi-level wavelet-based U-Net structure of the artificial intelligence learning network generates the learning model that satisfies the frame condition through a convolution framelet-based mathematical analysis, and by the learning model It may include a trained neural network, and may include a multi-resolution neural network including a pooling layer and an unpooling layer.

따라서 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공신경망을 활용한 환자에게 저 선량을 달성하기 위해 Sparse-view 방법으로 획득할 때 발생하는 직선성 패턴을 제거하여 진단효율을 높일 수 있다.Therefore, according to the computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, the linear pattern that occurs when acquiring using the sparse-view method to achieve a low dose to a patient using an artificial neural network can be removed to increase the diagnostic efficiency.

또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 광자계수기반의 디텍터에서 발생하는 부족한 보정이나 오작동에 의해 발생되는 현상을 인공 신경망을 활용하기 때문에 영상의 화질을 개선할 수 있는 효과가 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, a phenomenon caused by insufficient correction or malfunction occurring in a photon count-based detector is corrected by using an artificial neural network. It has the effect of improving the picture quality of

또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공신경망을 활용한 직선성을 가지는 인공물 제거뿐만 아니라 다양한 진단 장치에 발생하는 인공물 제거에 도움을 줄 수 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, it is possible to not only remove linear artifacts using an artificial neural network but also to remove artifacts generated in various diagnostic devices. can

또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공 신경망을 활용하기 때문에 기존보다 빠른 스캔 시간의 컴퓨터 단층영상을 이용하여 면적이 넓은 흉부뿐만 아니라 무릎관절, 손등 뼈, 부비동, 유방 촬영 등 다른 신체에도 이용할 수 있는 효과가 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, since an artificial neural network is used, a computed tomography image with a faster scan time than before is used to not only the chest but also the knee with a large area. It has an effect that can be used on other body parts such as joints, bones of the back of the hand, sinuses, and mammography.

또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공 신경망을 활용한 컴퓨터 단층영상시스템이기 때문에 의료 시장 진출을 위한 데이터베이스로 이용될 수 있으며, 국내 의료기기의 산업화 및 기술개발에 기여할 수 있는 효과가 있다..In addition, according to the computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, since it is a computerized tomography image system using an artificial neural network, it can be used as a database for entering the medical market, and can be used as a database for domestic medical treatment. It has the effect of contributing to the industrialization and technological development of devices.

또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 기존의 인공물을 제거하는 반복적 재구성방법에서는 계산 시간은 GPU를 사용하는 경우 약 60 내지 100초/슬라이스 인반면, 본 발명은 약 0.4 내지 0.5 초/슬라이스를 달성하여, 시간적으로 높은 효율을 가질 수 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, the calculation time is about 60 to 100 seconds/slice in the case of using a GPU in the iterative reconstruction method to remove the existing artefacts On the other hand, the present invention achieves about 0.4 to 0.5 sec/slice, so that it can have high efficiency in time.

그리고 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 기존 직선성 패턴 제거 방법은 원본 값을 주변 픽셀 값들의 보간값으로 대체하기 때문에, 원본 영상에 대한 정보 손실이 일어날 수 있으나, 본원 발명은 기존의 방법과는 DWT, IWT를 활용하였으며, 최신 의료영상기술로써 인공 신경망을 통해서 영상을 훈련시켜 인공물을 보정하여 원래 영상이 가지고 있는 정보를 이용하며 해상도를 유지시키는 효과가 있다.And, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, the existing linearity pattern removal method replaces the original value with the interpolated value of the surrounding pixel values, so information on the original image Although loss may occur, the present invention utilizes DWT and IWT compared to the existing method, and as the latest medical imaging technology, the image is trained through an artificial neural network to correct the artifact, and the information of the original image is used and the resolution is maintained. has the effect of making

도 1은 본 발명의 Sparse-view CT 재구성 방법의 프레임워크를 예시한 도면,
도 2는 Full projections을 이용한 Sparse-view CT 영상을 재구성하는 단계를 설명하기 위한 참고 도면,
도 3은 Sparse-view CT영상에서 나타나는 직선성 인공물의 feature들을 학습하는 과정과 관련된 도면,
도 4는 4레벨 웨이브렛을 이용한 인공물 feature 추출과정을 도시한 도면,
도 5는 원본영상에서 출력값을 얻는 방법을 설명하기 위한 도면,
도 6은 다중 레벨 웨이브렛 기반 U-Net구조의 인공지능 아키텍쳐를 예시한 도면,
도 7은 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 설명하기 위한 흐름도,
도 8은 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 장치의 구성도,
그리고
도 9는 여러 가지 방법으로 보정된 sparse-view CT영상을 예시한 도면이다.
1 is a diagram illustrating the framework of the Sparse-view CT reconstruction method of the present invention;
2 is a reference diagram for explaining the step of reconstructing a sparse-view CT image using full projections;
3 is a view related to the process of learning features of linear artifacts appearing in sparse-view CT images;
4 is a diagram illustrating an artifact feature extraction process using a 4-level wavelet;
5 is a view for explaining a method of obtaining an output value from an original image;
6 is a diagram illustrating an artificial intelligence architecture of a multi-level wavelet-based U-Net structure;
7 is a flowchart for explaining a computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence;
8 is a block diagram of a computerized tomography image reconstruction apparatus for multi-level wavelet artificial intelligence-based dose reduction;
and
9 is a diagram illustrating a sparse-view CT image corrected by various methods.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in the present specification and claims are not to be construed as limited in their ordinary or dictionary meanings, and on the principle that the inventor can appropriately define the concept of the term in order to best describe his invention. It should be interpreted as meaning and concept consistent with the technical idea of the present invention.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as “…unit”, “…group”, “module”, and “device” described in the specification mean a unit that processes at least one function or operation, which is implemented by a combination of hardware and/or software can be

명세서 전체에서 "및/또는"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및/또는 제3 항목"의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.Throughout the specification, the term “and/or” should be understood to include all combinations possible from one or more related items. For example, the meaning of “the first item, the second item and/or the third item” means to be presented from the first, second, or third item as well as two or more of the first, second, or third items. A combination of all possible items.

명세서 전체에서 각 단계들에 있어 식별부호(예를 들어, a, b, c, ...)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 한정하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step throughout the specification, identification symbols (eg, a, b, c, ...) are used for convenience of description, and identification codes do not limit the order of each step, and each step is Unless the context clearly dictates a specific order, the order may differ from the stated order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하, 도면을 참고하여 본 발명의 일실시예에 대하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

먼저, 본 발명은 Sparse-view CT 영상이 방사선 노출 빈도를 줄여 환자에 도달하는 방사선량을 줄일 수 있고, 영상획득 시간을 줄여주는 이점을 갖고 있으나, 노출 빈도 감소로 인하여 발생하는 영상의 줄 인공물(streaking artifacts)로 인해 진단에 문제가 발생할 수 있기 때문에 이를 인공지능으로 학습시킨 다음 Sparse-view CT 영상에서 줄 인공물이 제거된 재구성된 영상을 획득하게 하는 것이 하나의 특징이다.First, according to the present invention, the sparse-view CT image can reduce the amount of radiation reaching the patient by reducing the frequency of radiation exposure, and has the advantage of reducing the image acquisition time. Because streaking artifacts can cause problems in diagnosis, one feature is to learn it with artificial intelligence and then acquire a reconstructed image with line artifacts removed from the sparse-view CT image.

도 7은 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 설명하기 위한 흐름도로서, 도면을 참고하면, 본 발명의 일실시예에 의한 전산화 단층촬영(computed tomography) 영상의 직선성 패턴을 보정하기 위한 컴퓨터 단층영상 재구성 방법은, 저밀도 촬영 CT 영상(sparse-view CT 영상)을 획득하는 단계(S110)와, sparse-view CT 영상을 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크에 입력하여 방향성인 직선성 패턴(Streaking artifacts)을 보정하여 획득하는 단계(S120, S130)와 저밀도 촬영 CT 영상(sparse-view CT 영상)에서 상기 직선성 패턴을 마이너스하여 직선성 패턴이 제거된 영상을 획득하는 단계(S140)를 포함한다.7 is a flowchart for explaining a computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence. Referring to the drawings, a straight line of a computed tomography image according to an embodiment of the present invention A computerized tomography image reconstruction method for correcting a sexual pattern includes: acquiring a low-density CT image (sparse-view CT image) (S110); The linear pattern is obtained by correcting and obtaining directional streaking artifacts by input to the intelligent learning network (S120, S130) and subtracting the linearity pattern from the low-density CT image (sparse-view CT image). and acquiring the removed image (S140).

단계 S110은 전산화 단층촬영(computed tomography) 영상에서 줄 인공물과 같은 직선성 패턴을 보정하기 위한 저밀도 촬영 CT 영상(이하, sparse-view CT 영상)을 획득한다.Step S110 acquires a low-density CT image (hereinafter, sparse-view CT image) for correcting a linear pattern such as a line artifact in a computed tomography image.

Sparse-view CT는 방사선 노출 빈도를 줄여 환자에게 발생되는 피폭선량을 낮출 수 있는 가장 간단한 방법이다.Sparse-view CT is the simplest method to reduce the radiation exposure frequency and thereby lower the exposure dose to the patient.

하지만 노출 빈도를 줄이게 되면 환자에 투과되는 방사선량의 정보가 부족하여 영상을 받아들이는 신호부의 정보 손실이 발생된다. 이러한 정보손실은 영상의 진단이나 판독에 큰 문제를 줄 수 있을 뿐만 아니라, 또한 부족한 신호 및 정보로 영상을 재구성하였을 때 방향성을 가지는 직선성 패턴이 발생할 수 있다.However, if the exposure frequency is reduced, information on the amount of radiation transmitted to the patient is insufficient, and information loss occurs in the signal unit that receives the image. This loss of information may cause a great problem in diagnosing or reading an image, and also, a linear pattern having directionality may occur when an image is reconstructed with insufficient signals and information.

따라서, 단계110에서 획득된 Sparse-view CT는 직선성 패턴을 보정하기 위하여 인공지능 학습 네트워크로 입력된다(S120).Therefore, the sparse-view CT obtained in step 110 is input to the artificial intelligence learning network to correct the linearity pattern (S120).

S120에서는 단계 S130에서의 직선성 패턴(Streaking artifacts)을 추출하기 위하여 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크로 입력된다.In S120, it is input to the artificial intelligence learning network of a multi-level wavelet-based U-Net structure in order to extract the linearity patterns (streaking artifacts) in step S130.

본 발명의 인공지능 학습 네트워크는 Sparse-view CT에서 직선성 패턴(Streaking artifacts)을 추출하기 위하여 인공 신경망으로 학습된다.The artificial intelligence learning network of the present invention is trained with an artificial neural network to extract linear patterns (streaking artifacts) from sparse-view CT.

도면을 참조하여 인공지능 학습 방법에 대하여 설명한다.An artificial intelligence learning method will be described with reference to the drawings.

도 1은 본 발명 기반 Sparse-view CT 재구성 방법의 프레임워크로서, 먼저 고선량으로 획득된 영상을 사이노그램(Full projections)에서 다운 샘플링하여 Sparse-view CT 영상을 재구성한다.1 is a framework of a sparse-view CT reconstruction method based on the present invention. First, a sparse-view CT image is reconstructed by down-sampling an image obtained at a high dose in sinograms (full projections).

이렇게 재구성된 영상은 Convolutional Neural Network(CNN), Discrete wavelet transform (DWT), Inverse wavelet transform (IWT)을 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴의 feature들을 학습하고, 잔여(residual) 학습에 의해 학습된 학습 모델의 뉴럴 네트워크를 이용하여 Sparse-view CT 데이터에 대한 직선성 패턴을 쉽게 추출할 수 있는 것이다.This reconstructed image uses Convolutional Neural Network (CNN), Discrete wavelet transform (DWT), and Inverse wavelet transform (IWT) to learn features of linear patterns appearing in sparse-view CT images, and to learn the features of residual learning. It is possible to easily extract the linearity pattern for sparse-view CT data by using the neural network of the learning model learned by

도 2의 Full projections을 이용한 Sparse-view CT 영상을 재구성하는 단계를 설명하기 위한 참고 도면을 보면, Full projections을 이용하여 사이노그램(Full projections)에서 휘소 샘플링되고, 샘플링된 CT 영상은 여과후 역투영 FBP(Filtered BackProjection)를 이용하여 재구성하는 것이 도시되어 있다.Referring to the reference diagram for explaining the step of reconstructing the sparse-view CT image using the full projections of FIG. 2 , the CT image is sampled from the sinogram (full projections) using the full projections, and the sampled CT image is inversely filtered. Reconstruction using projected Filtered BackProjection (FBP) is shown.

상기와 같이 재구성된 CT 영상은 인공물 feature 추출과정으로 진행된다.The CT image reconstructed as described above proceeds with the artifact feature extraction process.

도 4는 4레벨 웨이브렛을 이용한 인공물 feature 추출과정을 도시한 도면이고, 도 3은 Sparse-view CT영상에서 나타나는 직선성 인공물의 feature들을 학습하는 과정과 관련된 도면이다.4 is a diagram illustrating an artifact feature extraction process using a 4-level wavelet, and FIG. 3 is a diagram related to a process of learning features of a linear artifact appearing in a sparse-view CT image.

도면을 참고하면, 4레벨 웨이브렛 변형을 이용하여 줄 인공물인 직선성 패턴의 feature를 추출하는 과정에 관한 것으로, 컨볼루션 신경망(CNN;Convolutional Neural Network), 이산웨이브렛변환(DWT;Discrete wavelet transform), 역웨이브렛(IWT;Inverse wavelet transform)을 이용하여 sparse-view CT 영상에서 나타나는 직선성 인공물의 feature들을 학습하는 것으로, DWT와 IWT는 각 레벨마다 방향성을 가지고 있는 특징이 있어 방향성이 분명한 인공물에 대한 특징을 추출하기에 적합하다.Referring to the drawings, it relates to a process of extracting a feature of a linear pattern, which is a line artifact, using 4-level wavelet transformation. Convolutional Neural Network (CNN), Discrete wavelet transform (DWT) ) and inverse wavelet transform (IWT) to learn the features of linear artifacts appearing in sparse-view CT images. It is suitable for extracting features for

컨볼루션 신경망(convolutional neural network: 이하 CNN) 기법은 신경망(neural network)을 모델링하는 인공신경망 모델링 기법 하나로 특히 영상과 같은 2차원 입력 데이터의 패턴을 인식하고 추정하는데 유용한 기법으로 알려져 있다.A convolutional neural network (CNN) technique is known as an artificial neural network modeling technique for modeling a neural network, and is particularly useful for recognizing and estimating patterns of two-dimensional input data such as images.

원본 영상을 이산웨이브렛변환(DWT;discrete wavelet transform)하여 4배수의 영상으로 분리하고, 분리된 영상을 역웨이브렛 변환(IWT;Inverse wavelet transform)하여 원본 영상으로 복원시키는 것이다.Discrete wavelet transform (DWT) is performed on the original image to separate it into quadruple images, and inverse wavelet transform (IWT) is performed on the separated image to restore the original image.

도 3을 참고하면, 재구성된 Sparse-view CT영상을 컨볼루션 신경망(CNN; Convolutional Neural Network)을 통하여 노이즈를 제거하고, 노이즈가 제거된 512ch의 원본 영상을 1단계 DWT를 수행하면 사방 256ch의 4 화면으로, 2단계 DWT에서는 사방 128ch 16 화면으로 3단계에서는 사방 64ch의 64 화면 그리고 4단계에서는 사방 32ch의 256 화면으로 되면서 직선성 패턴의 특징을 추출하는 것이다.Referring to FIG. 3, if noise is removed from the reconstructed sparse-view CT image through a convolutional neural network (CNN), and the noise-removed 512ch original image is subjected to step 1 DWT, 4 As a screen, in step 2 DWT, it becomes 128ch 16 screens, in step 3, 64 screens in all directions, and in step 4, it becomes 256 screens of 32ch all around, and the linearity pattern features are extracted.

즉, 원본 영상에서 Sparse-view CT영상을 제외하면 잔여물로 직선성 패턴(streaking artifacts)을 얻게 되고, 이를 출력값으로 학습시켜 방향성을 가지는 특징을 이용하여 인공지능 학습 수렴에 용이하게 사용하는 것이다(도 5 참고).That is, if the sparse-view CT image is excluded from the original image, streaking artifacts are obtained as residuals, and it is learned as an output value and is easily used for AI learning convergence by using the directional feature ( see Fig. 5).

이렇게 만들어진 방향성을 가지는 직선성 패턴(streaking artifacts)은 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 신경망을 통해서 영상을 훈련시켜 개선하는 것이다.The streaking artifacts created in this way are improved by training the image through an artificial neural network of a multi-level wavelet-based U-Net structure.

도 6의 다중 레벨 웨이브렛 기반 U-Net구조의 인공지능 아키텍쳐를 예시한 도면을 참고하면, 저 선량을 가지는 Sparse-view CT 영상을 Input layer로 하여 내장된 최적화 알고리즘(ADAM optimization algorithm)을 이용하여 up and down sampling으로 DWT와 IWT를 사용하여 Output layer로 직선성 패턴(Streaking artifacts)을 갖는 영상을 출력하고, 이렇게 해서 얻어진 출력 영상을 Input layer에 들어간 영상에서 빼주면 아티팩트가 제거된 영상을 만들 수 있는 것이다.Referring to the diagram illustrating the artificial intelligence architecture of the multi-level wavelet-based U-Net structure of FIG. 6, using a sparse-view CT image having a low dose as an input layer, using the built-in optimization algorithm (ADAM optimization algorithm) Using DWT and IWT for up and down sampling, an image with streaking artifacts is output to the output layer, and the resulting output image is subtracted from the image entered in the input layer to create an image with artifacts removed. there will be

즉, 본 발명의 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 CNN과 DWT 그리고 IWT를 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴(Streaking artifacts)의 특징들을 학습시키는 것이다.That is, the artificial intelligence learning network of the multi-level wavelet-based U-Net structure of the present invention learns the characteristics of the streaking artifacts appearing in the sparse-view CT image using CNN, DWT, and IWT.

다시 말하면, 본 발명의 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 수학적 해석을 통해 상기 프레임 조건을 만족하는 상기 학습 모델을 생성하고, 상기 학습 모델에 의해 학습된 뉴럴 네트워크가 포함된다.In other words, the artificial intelligence learning network of the multi-level wavelet-based U-Net structure of the present invention generates the learning model that satisfies the frame condition through a convolution framelet-based mathematical analysis, and A neural network trained by the model is included.

도 6에 도시된 바와 같이, 각 네트워크는 선형 변환(linear transform) 연산을 수행하는 컨볼루션 레이어, 정규화(normalization) 연산을 수행하는 배치 노말라이제이션(batch normalization) 레이어, 비선형 함수(nonlinear function) 연산을 수행하는 ReLU(rectified linear unit) 레이어 및 연쇄를 가진 경로 연결을 포함한다. As shown in FIG. 6 , each network includes a convolution layer that performs a linear transform operation, a batch normalization layer that performs a normalization operation, and a nonlinear function operation. It includes a path connection with a rectified linear unit (ReLU) layer and concatenation that performs

특히, 각 스테이지는 4 × 4 커널들을 갖는 컨볼루션, 배치 노말라이제이션 및 ReLU 레이어들로 구성된 4개의 순차적인 레이어들을 포함한다. 마지막 스테이지는 두 개의 순차적인 레이어들과 마지막 레이어를 포함하며, 마지막 레이어는 1 × 1 커널을 갖는 컨볼루션만을 포함한다. 각 컨볼루션 레이어에 대한 채널 수는 도 6에 도시되어 있으며, 각 풀링 레이어 후에 채널 수는 두 배가 된다. In particular, each stage contains 4 sequential layers consisting of convolution with 4x4 kernels, batch normalization and ReLU layers. The last stage contains two sequential layers and the last layer, and the last layer contains only the convolution with 1 × 1 kernel. The number of channels for each convolutional layer is shown in Fig. 6, and the number of channels is doubled after each pooling layer.

본 발명의 장치에서 줄 인공물과 같은 직선성 패턴을 추출하기 위해 사용되는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 컨볼루션 프레임렛(convolution framelet)기반의 수학적 해석을 통해 프레임 조건을 만족하는 학습 모델을 생성하고, 학습 모델에 의해 학습된 뉴럴 네트워크를 포함할 수 있으며, 풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 다중 해상도 뉴럴 네트워크를 포함할 수 있다.The artificial intelligence learning network of the multi-level wavelet-based U-Net structure used for extracting linearity patterns such as line artifacts in the device of the present invention uses a convolution framelet-based mathematical analysis to determine the frame conditions. A satisfactory learning model is generated, and a neural network trained by the learning model may be included, and a multi-resolution neural network including a pooling layer and an unpooling layer may be included.

또한, 뉴럴 네트워크는 풀링 레이어에서 상기 언풀링 레이어로의 바이패스 연결을 포함할 수 있다.In addition, the neural network may include a bypass connection from the pooling layer to the unpooling layer.

도 9의 여러 가지 방법으로 보정된 sparse-view CT영상을 예시한 도면을 참고하면, 원본 영상을 60장으로 하여 재구성된 parse-view CT영상에서 여러 가지 방법으로 보정된 영상이 예시되어 있다.Referring to the drawings exemplifying the sparse-view CT images corrected by various methods in FIG. 9 , images corrected by various methods are illustrated in the parse-view CT images reconstructed using 60 original images.

좌측영상부터 기준영상(Reference), 60view, 보간법(Interpolation), 진보적인 영상 재구성 방법(예:adaptive-steepest-descent-projection-onto-convex-sets(ASD-POCS), U-net, 본 발명의 MWCNN에 의한 보정된 영상이 예시되어 있다.From the left image, reference image (Reference), 60view, interpolation, progressive image reconstruction method (eg, adaptive-steepest-descent-projection-onto-convex-sets (ASD-POCS), U-net, of the present invention The corrected image by MWCNN is illustrated.

도 8은 본 발명의 일 실시예에 따른 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 장치의 구성을 도시한 것이다.8 is a diagram illustrating the configuration of a computerized tomography image reconstruction apparatus for dose reduction based on multi-level wavelet artificial intelligence according to an embodiment of the present invention.

도면을 참고하면, 본 발명의 일 실시예에 따른 컴퓨터 단층영상 재구성 장치(100)는 수신부(110), 영상처리부(120), 직선성 패턴이 제거된 영상을 출력하는 출력부(130)를 포함한다.Referring to the drawings, the computer tomography image reconstruction apparatus 100 according to an embodiment of the present invention includes a receiving unit 110 , an image processing unit 120 , and an output unit 130 for outputting an image from which the linear pattern is removed. do.

수신부(110)는 희소 뷰(sparse-view) 전산단층 촬영 데이터를 수신한다.The receiver 110 receives sparse-view computed tomography data.

영상처리부(120)는 미리 설정된 프레임 조건을 만족하며 컨볼루션 프레임렛(convolution framelet) 기반의 학습 모델에 대한 뉴럴 네트워크를 이용하여 희소 뷰 전산단층(sparse-view CT) 촬영 데이터에 대한 직선성 패턴을 찾아내어 원본영상에서 이를 마이너스하여 직선성 패턴이 제거된 영상을 재구성하는 것이다.The image processing unit 120 satisfies a preset frame condition and uses a neural network for a convolution framelet-based learning model to generate a linear pattern for sparse-view CT imaging data. It is to reconstruct the image from which the linearity pattern has been removed by finding it and subtracting it from the original image.

이는 직선성 패턴이 방향성을 갖고 있기 때문에 인공지능 학습 수렴에 용이하기 때문이다.This is because it is easy to converge AI learning because the linear pattern has a direction.

이를 위하여 영상처리부(120)는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 통하여 직선성 패턴에 대한 특징을 추출하도록 학습시키는 것이다.To this end, the image processing unit 120 learns to extract features for a linear pattern through an artificial intelligence learning network of a multi-level wavelet-based U-Net structure.

즉, 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 고선량으로 획득된 영상을 사이노그램(Full projections)에서 다운 샘플링하여 저밀도 촬영 CT 영상(sparse-view CT 영상)으로 재구성하고, 재구성된 sparse-view CT 영상을 상기 원본 영상에서 마이너스하여 방향성을 갖는 영상인 직선성 패턴(Streaking artifacts)을 획득하고, 획득된 영상을 출력값으로 학습시켜 방향성을 가지는 직선성 패턴의 특징을 이용하여 학습하는 것이다.That is, the multi-level wavelet-based U-Net structure of artificial intelligence learning network downsamples the high-dose images from sinograms (full projections) and reconstructs them into low-density CT images (sparse-view CT images), By subtracting the reconstructed sparse-view CT image from the original image, it acquires directional patterns (streaking artifacts), and learns the acquired image as an output value using the characteristics of the directional linear pattern. will do

그 구체적인 방법은 상술한 내용들을 참고하면 된다.For the specific method, refer to the above-mentioned contents.

결국 영상처리부(120)는 프레임 조건을 만족하며 잔여(residual) 학습에 의해 학습된 학습 모델의 뉴럴 네트워크를 이용하여 희소 뷰 전산단층 촬영 데이터에 대한 직선성 패턴을 쉽게 추출할 수 있는 것이다.As a result, the image processing unit 120 satisfies the frame condition and can easily extract a linearity pattern for the sparse view computed tomography data by using the neural network of the learning model learned by residual learning.

비록, 도 8의 장치에서 그 설명이 생략되었더라도, 도 8을 구성하는 각 구성 수단은 도 1 내지 도 6에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description of the device of FIG. 8 is omitted, each component constituting FIG. 8 may include all the contents described with reference to FIGS. 1 to 6 , which is apparent to those skilled in the art.

이상에서 본 발명은 기재된 구체예에 대하여 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허 청구범위에 속함은 당연한 것이다.Although the present invention has been described in detail with respect to the described embodiments, it is obvious to those skilled in the art that various changes and modifications are possible within the scope of the technical spirit of the present invention, and it is natural that such variations and modifications belong to the appended claims.

100 : 컴퓨터 단층영상 재구성 장치
110 : 수신부
120 : 영상처리부
130 : 출력부
100: computer tomography image reconstruction device
110: receiver
120: image processing unit
130: output unit

Claims (10)

전산화 단층촬영(computed tomography) 영상의 인공물을 보정하기 위한 컴퓨터 단층영상 재구성 방법에 있어서,
(a)저밀도 촬영 CT 영상(sparse-view CT 영상)을 획득하는 단계;
(b)상기 sparse-view CT 영상을 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크에 입력하여 방향성인 줄 인공물 영상(Streaking artifacts)을 보정하여 획득하는 단계;및
(c)상기 저밀도 촬영 CT 영상(sparse-view CT 영상)에서 상기 줄 인공물 영상을 마이너스하여 줄 인공물을 제거하는 단계;
를 포함하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
A method for reconstructing a computed tomography image for correcting artifacts in a computed tomography image, the method comprising:
(a) obtaining a low-density CT image (sparse-view CT image);
(b) inputting the sparse-view CT image into an artificial intelligence learning network of a multi-level wavelet-based U-Net structure to correct and obtain directional streak artifacts; And
(c) removing the line artefact by subtracting the line artefact image from the low-density imaging CT image (sparse-view CT image);
A computerized tomography image reconstruction method for dose reduction based on artificial intelligence-based multi-level wavelet comprising a.
청구항 1에 있어서,
상기 (b)단계는
(b-1)고선량으로 획득된 CT 영상을 사이노그램(Full projection)에서 다운 샘플링하여 저밀도 촬영 CT 영상(sparse-view CT 영상)으로 재구성하는 단계;
(b-2)상기 (b-1)단계에서 획득된 sparse-view CT 영상을 상기 원본 영상에서 마이너스하여 방향성을 갖는 영상인 줄 인공물 영상(Streaking artifacts)을 획득하는 단계;및
(b-3)상기 (b-2)단계에서 획득된 영상을 출력값으로 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 통해서 학습된 조건에 따라서 줄 인공물 영상을 추출하는 단계;
를 포함하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
Step (b) is
(b-1) down-sampling the CT image acquired at high dose from a sinogram (full projection) and reconstructing it into a low-density CT image (sparse-view CT image);
(b-2) subtracting the sparse-view CT image obtained in step (b-1) from the original image to obtain streak artifacts, which are directional images; and
(b-3) extracting a line artefact image according to the conditions learned through an artificial intelligence learning network of a multi-level wavelet-based U-Net structure using the image obtained in step (b-2) as an output value;
A computerized tomography image reconstruction method for dose reduction based on artificial intelligence-based multi-level wavelet comprising a.
청구항 1에 있어서,
상기 (c)단계는
sparse-view CT 영상을 여과 후 역투영 FBP(filtered backprojection)를 이용하여 이미지를 재구성하고, 이로 인해 발생하는 줄 인공물 영상(Streaking artifacts)을 원본 영상에서 마이너스하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
Step (c) is
After filtering the sparse-view CT image, the image is reconstructed using filtered backprojection (FBP), and the resulting streak artifacts are subtracted from the original image. Multi-level wavelet AI-based dose reduction A computerized tomography image reconstruction method for
청구항 1에 있어서,
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
상기 (b)단계에서 발생한 직선성 패턴(Streaking artifacts)을 노이즈 제거 CNN(Convolutional Neural Network)과 이산웨이브렛변환(DWT;discrete wavelet transform), 그리고 역웨이브렛 변환(IWT;Inverse wavelet transform)을 이용하여 학습되는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
Using a convolutional neural network (CNN), discrete wavelet transform (DWT), and inverse wavelet transform (IWT) to remove noise from the streaking artifacts generated in step (b) Multi-level wavelet artificial intelligence-based computerized tomography image reconstruction method for dose reduction.
청구항 1에 있어서,
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
CNN과 DWT 그리고 IWT를 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴(Streaking artifacts)의 특징들을 학습하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence that learns the characteristics of streaking artifacts in sparse-view CT images using CNN, DWT and IWT.
청구항 1에 있어서,
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
컨볼루션 프레임렛(convolution framelet) 기반의 수학적 해석을 통해 상기 프레임 조건을 만족하는 상기 학습 모델을 생성하고, 상기 학습 모델에 의해 학습된 뉴럴 네트워크를 포함하는 것을 특징으로 하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
Multi-level wavelet artificial intelligence based, characterized in that it generates the learning model that satisfies the frame condition through a convolution framelet-based mathematical analysis, and includes a neural network trained by the learning model A computerized tomography image reconstruction method for dose reduction.
청구항 1에 있어서,
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 다중 해상도 뉴럴 네트워크를 포함하는 것을 특징으로 하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
A computer tomography image reconstruction method for multi-level wavelet AI-based dose reduction, comprising a multi-resolution neural network including a pooling layer and an unpooling layer.
청구항 1에 있어서,
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
4레벨 웨이브렛 변형을 이용하여 줄 인공물 영상(Streaking artifacts)을 출력하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet AI that outputs streaking artifacts using 4-level wavelet transformation.
청구항 1에 있어서,
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
저 선량을 가지는 Sparse-view CT 영상을 Input layer로 하여 내장된 최적화 알고리즘(ADAM optimization algorithm)을 이용하여 up and down sampling으로 DWT와 IWT를 사용하여 Output layer로 직선성 패턴(Streaking artifacts)을 갖는 영상을 출력하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
Image with sparse-view CT image with low dose as input layer and linearity pattern (streaking artifacts) as output layer using DWT and IWT with up and down sampling using the built-in optimization algorithm (ADAM optimization algorithm) A computerized tomography image reconstruction method for dose reduction based on AI-based multi-level wavelet that outputs
청구항 9에 있어서,
상기 직선성 패턴(Streaking artifacts)을 갖는 영상을 input layer에 들어간 영상에서 다시 빼주면 아티펙트가 제거된 영상을 생성하여 출력하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.












10. The method of claim 9,
A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence that generates and outputs an image from which artifacts are removed by subtracting the image having the linearity pattern (streaking artifacts) from the image that has entered the input layer.












KR1020210051285A 2021-04-20 2021-04-20 Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network KR102553068B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210051285A KR102553068B1 (en) 2021-04-20 2021-04-20 Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210051285A KR102553068B1 (en) 2021-04-20 2021-04-20 Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network

Publications (2)

Publication Number Publication Date
KR20220144668A true KR20220144668A (en) 2022-10-27
KR102553068B1 KR102553068B1 (en) 2023-07-06

Family

ID=83810420

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210051285A KR102553068B1 (en) 2021-04-20 2021-04-20 Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network

Country Status (1)

Country Link
KR (1) KR102553068B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190024636A (en) * 2017-08-30 2019-03-08 한국과학기술원 Method and apparatus for reconstructing image based on neural network
KR20190102770A (en) 2018-02-27 2019-09-04 기초과학연구원 Method for calibrating beam-hardening artifacts of computed tomography image and computed tomography apparatus using thereof
KR102039472B1 (en) * 2018-05-14 2019-11-01 연세대학교 산학협력단 Device and method for reconstructing computed tomography image
KR20190135618A (en) * 2018-05-29 2019-12-09 한국과학기술원 Method for processing interior computed tomography image using artificial neural network and apparatus therefor
KR20190135616A (en) * 2018-05-29 2019-12-09 한국과학기술원 Method for processing sparse-view computed tomography image using artificial neural network and apparatus therefor
JP2020099662A (en) * 2018-12-20 2020-07-02 キヤノンメディカルシステムズ株式会社 X-ray CT system and method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190024636A (en) * 2017-08-30 2019-03-08 한국과학기술원 Method and apparatus for reconstructing image based on neural network
KR20190102770A (en) 2018-02-27 2019-09-04 기초과학연구원 Method for calibrating beam-hardening artifacts of computed tomography image and computed tomography apparatus using thereof
KR102039472B1 (en) * 2018-05-14 2019-11-01 연세대학교 산학협력단 Device and method for reconstructing computed tomography image
KR20190135618A (en) * 2018-05-29 2019-12-09 한국과학기술원 Method for processing interior computed tomography image using artificial neural network and apparatus therefor
KR20190135616A (en) * 2018-05-29 2019-12-09 한국과학기술원 Method for processing sparse-view computed tomography image using artificial neural network and apparatus therefor
JP2020099662A (en) * 2018-12-20 2020-07-02 キヤノンメディカルシステムズ株式会社 X-ray CT system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Minjae Lee, et al., "Sparse-view CT reconstruction based on multi-level wavelet convolution neural network", Physica Medica 80 (2020)* *

Also Published As

Publication number Publication date
KR102553068B1 (en) 2023-07-06

Similar Documents

Publication Publication Date Title
US11120582B2 (en) Unified dual-domain network for medical image formation, recovery, and analysis
JP6855223B2 (en) Medical image processing device, X-ray computer tomographic imaging device and medical image processing method
Mehranian et al. X-ray CT metal artifact reduction using wavelet domain $ L_ {0} $ sparse regularization
CN108961237B (en) Low-dose CT image decomposition method based on convolutional neural network
JP4919408B2 (en) Radiation image processing method, apparatus, and program
CN111429379B (en) Low-dose CT image denoising method and system based on self-supervision learning
CN110223255B (en) Low-dose CT image denoising and recursion method based on residual error coding and decoding network
CN112258415B (en) Chest X-ray film super-resolution and denoising method based on generation countermeasure network
CN112381741B (en) Tomography image reconstruction method based on SPECT data sampling and noise characteristics
CN112017131B (en) CT image metal artifact removing method and device and computer readable storage medium
CN111915696A (en) Three-dimensional image data-assisted low-dose scanning data reconstruction method and electronic medium
Zhou et al. DuDoUFNet: dual-domain under-to-fully-complete progressive restoration network for simultaneous metal artifact reduction and low-dose CT reconstruction
Gajera et al. CT-scan denoising using a charbonnier loss generative adversarial network
Peng et al. A cross-domain metal trace restoring network for reducing X-ray CT metal artifacts
CN113706409A (en) CBCT image enhancement method and device based on artificial intelligence and storage medium
CN109523458A (en) A kind of high-precision sparse angular CT method for reconstructing of the sparse induction dynamic guiding filtering of combination
Fournié et al. CT field of view extension using combined channels extension and deep learning methods
WO2022257959A1 (en) Multi-modality and multi-scale feature aggregation for synthesizing spect image from fast spect scan and ct image
Hegazy et al. Half-scan artifact correction using generative adversarial network for dental CT
Ketola et al. Deep learning-based sinogram extension method for interior computed tomography
CN109472836B (en) Artifact correction method in CT iterative reconstruction
WO2023000244A1 (en) Image processing method and system, and application of image processing method
CN112258438B (en) LDCT image recovery method based on unpaired data
KR102553068B1 (en) Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network
CN116664710A (en) CT image metal artifact unsupervised correction method based on transducer

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant