KR20220144668A - Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network - Google Patents
Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network Download PDFInfo
- Publication number
- KR20220144668A KR20220144668A KR1020210051285A KR20210051285A KR20220144668A KR 20220144668 A KR20220144668 A KR 20220144668A KR 1020210051285 A KR1020210051285 A KR 1020210051285A KR 20210051285 A KR20210051285 A KR 20210051285A KR 20220144668 A KR20220144668 A KR 20220144668A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- level wavelet
- artificial intelligence
- sparse
- view
- Prior art date
Links
- 238000013527 convolutional neural network Methods 0.000 title claims description 16
- 238000002591 computed tomography Methods 0.000 claims abstract description 74
- 238000000034 method Methods 0.000 claims abstract description 70
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 48
- 230000009467 reduction Effects 0.000 claims abstract description 26
- 238000003325 tomography Methods 0.000 claims abstract description 24
- 238000003384 imaging method Methods 0.000 claims abstract description 3
- 238000013528 artificial neural network Methods 0.000 claims description 23
- 238000011176 pooling Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims description 2
- 238000001914 filtration Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 11
- 230000005855 radiation Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000003745 diagnosis Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000009607 mammography Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5205—Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5258—Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G06N3/0454—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Optics & Photonics (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- High Energy & Nuclear Physics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Pulmonology (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 컴퓨터 단층영상 재구성 방법에 관한 것으로, 보다 상세하게는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 이용하여 학습을 시킨 뒤 줄 인공물과 같은 직선성 패턴(Streaking artifacts)이 제거된 sparse-view CT 영상을 재구성하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 관한 것이다.The present invention relates to a computerized tomography image reconstruction method, and more particularly, after learning using an artificial intelligence learning network of a multi-level wavelet-based U-Net structure, linearity patterns such as line artifacts are removed. A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence that reconstructs sparse-view CT images.
현대 의학에서, 질병의 정확한 진단뿐만 아니라 치료 중의 효율을 높이거나 예후를 판단하는 데까지 CT의 활용이 급증하였다. 특히 평판형 X선 검출기 기술 발달에 힘입어 소위 콘빔 CT라 불리는 시스템의 응용이 눈에 띄게 증가하였다. In modern medicine, the use of CT has rapidly increased not only for accurate diagnosis of diseases, but also for improving efficiency during treatment or determining prognosis. In particular, thanks to the development of flat-panel X-ray detector technology, the application of the so-called cone-beam CT system has significantly increased.
이러한 컴퓨터 단층촬영(Computed Tomography: CT)은 비침습적으로 고해상도 인체 단면 영상을 획득하여 뼈와 장기, 혈관 등 인체 내부 조직을 관찰하는데 유용한 의료영상 기법이다.Computed tomography (CT) is a useful medical imaging technique for non-invasively acquiring high-resolution cross-sectional images of the human body and observing internal tissues of the human body, such as bones, organs, and blood vessels.
과다한 CT 스캔이나 부주의한 CT 스캔 프로토콜 관리로 인하여, X선의 침습적 특성상 잠재적인 건강의 위험이 있을 수 있음이 보고되면서 의료계뿐만 아니라 일반 대중에도 CT 스캔에 따른 피폭 선량 문제가 큰 이슈가 되고 있다.Due to excessive CT scans or careless CT scan protocol management, it has been reported that there may be potential health risks due to the invasive nature of X-rays.
방사선 조사량을 줄이는 방안으로는 물리적으로 엑스선 조사선량을 줄이는 저선량(low-dose) 조사 방식과 엑스선 방사 횟수를 줄이는 희소 샘플링(sparsely sampled) 방식이 제안되었다. 그리고 희소 샘플링된 CT 데이터로부터 재구성된 영상에 첨가된 앨리어싱 아티팩트(aliasing artifact)를 줄이고자 하는 다양한 연구가 진행되었다.As a method of reducing the radiation dose, a low-dose irradiation method that physically reduces the X-ray radiation dose and a sparsely sampled method that reduces the number of X-ray radiation have been proposed. In addition, various studies have been conducted to reduce aliasing artifacts added to images reconstructed from sparsely sampled CT data.
Sparse-view CT는 방사선 노출 빈도를 줄여 환자에게 발생되는 피폭선량을 낮출 수 있는 가장 간단한 방법이다.Sparse-view CT is the simplest method to reduce the radiation exposure frequency and thereby lower the exposure dose to the patient.
하지만, 노출 빈도를 줄이게 되면 환자에 투과되는 방사선량의 정보가 부족하여 영상을 받아들이는 신호부의 정보 손실이 발생된다. 이러한 정보손실은 영상의 진단이나 판독에 큰 문제를 줄 수 있을 뿐만 아니라, 또한 부족한 신호 및 정보로 영상을 재구성하였을 때 방향성을 가지는 영상 인공물을 초래할 수 있다.However, if the exposure frequency is reduced, information on the amount of radiation transmitted to the patient is insufficient, and thus information loss occurs in the signal unit for receiving the image. Such information loss may cause a major problem in diagnosis or reading of an image, and may also lead to image artifacts having directionality when an image is reconstructed with insufficient signals and information.
즉, 희소 뷰 CT에서의 불충분한 프로젝션 뷰는 필터링-역투영(filtered-backprojection, FBP) 재구성에서 진단에 영향을 미칠 정도의 심한 인공물(streaking artifacts)을 생성하게 된다. That is, an insufficient projection view in the sparse view CT generates streaking artifacts that are severe enough to affect the diagnosis in the filtered-backprojection (FBP) reconstruction.
이에 발생된 인공물을 제거하고 손실된 정보를 보정하기 위한 구체적 방법이 필요하다.There is a need for a specific method for removing the artifacts generated by this and correcting the lost information.
이러한 영상의 인공물을 제거하기 위해서 보간법(Interpolation), 진보적인 영상 재구성 방법(예:adaptive-steepest-descent-projection-onto-convex-sets(ASD-POCS), Compressed sensing (CS))을 사용되고 있으나 복잡한 구조를 가지는 인공물을 정확하게 찾아서 보정하는 과정이 쉽지 않으며 정확한 영상을 복원하는데 한계가 있다.To remove these image artifacts, interpolation and advanced image reconstruction methods (eg, adaptive-steepest-descent-projection-onto-convex-sets (ASD-POCS), Compressed sensing (CS)) are used, but complex The process of accurately finding and correcting an artifact having a structure is not easy, and there is a limit in restoring an accurate image.
또한, 반복적 재구성 방법이므로 영상의 재구성의 시간이 상대적으로 크게 된다는 문제점이 있다.In addition, since it is an iterative reconstruction method, there is a problem in that the time for image reconstruction is relatively large.
이러한 문제점을 해결하기 위한 본 발명은 인공 신경망을 활용하여 보다 정확하고 편리하게 영상의 직선성 패턴(Streaking artifacts)을 제거할 수 있는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 목적으로 한다.The present invention to solve this problem is a computerized tomography image reconstruction method for dose reduction based on artificial intelligence based on multi-level wavelets that can more accurately and conveniently remove streaking artifacts of an image by using an artificial neural network. aims to provide
또한, 본 발명은 고 선량으로 획득된 영상을 사이노그램(Full projections)에서 다운 샘플링하여 sparse-view CT 영상을 재구성하는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 이용하여 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 다른 목적으로 한다.In addition, the present invention uses an artificial intelligence learning network of a multi-level wavelet-based U-Net structure that downsamples images acquired at high doses from sinograms (Full projections) and reconstructs sparse-view CT images to reduce the dose. Another object of the present invention is to provide a computerized tomography image reconstruction method for impression.
또한, 본 발명은 슬라이스당 0.4~0.5초로 시간적으로 높은 효율을 갖는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 또 다른 목적으로 한다. In addition, another object of the present invention is to provide a computerized tomography image reconstruction method for dose reduction based on multi-level wavelet AI, which has high temporal efficiency at 0.4 to 0.5 seconds per slice.
그리고 본 발명은 DWT, IWT를 활용하고, 인공 신경망을 통해서 영상을 훈련시켜 인공물을 보정하여 원래 영상이 가지고 있는 정보를 이용하며 해상력을 유지시킬 수 있는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 제공하는 것을 또 다른 목적으로 한다. In addition, the present invention utilizes DWT and IWT, trains an image through an artificial neural network, corrects artifacts, uses the information of the original image, and can maintain resolution based on multi-level wavelet AI for dose reduction. It is another object to provide a computerized tomography image reconstruction method.
이러한 과제를 해결하기 위한 본 발명의 일실시예에 의한 전산화 단층촬영(computed tomography) 영상의 인공물을 보정하기 위한 컴퓨터 단층영상 재구성 방법은, (a)저밀도 촬영 CT 영상(sparse-view CT 영상)을 획득하는 단계, (b)상기 sparse-view CT 영상을 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크에 입력하여 방향성인 직선성 패턴(Streaking artifacts)을 보정하여 획득하는 단계, 및 (c)상기 저밀도 촬영 CT 영상(sparse-view CT 영상)에서 상기 줄 인공물 영상을 마이너스하여 줄 인공물을 제거하는 단계를 포함하게 구성함으로써 달성될 수 있다.A computerized tomography image reconstruction method for correcting artifacts in a computed tomography image according to an embodiment of the present invention for solving these problems is (a) a low-density CT image (sparse-view CT image) acquiring, (b) inputting the sparse-view CT image into an artificial intelligence learning network of a multi-level wavelet-based U-Net structure to correct directional streaking artifacts to acquire, and (c) ) It can be achieved by configuring including the step of removing the line artefact by subtracting the line artefact image from the low-density imaging CT image (sparse-view CT image).
또한, (b)단계는 (b-1)고선량으로 획득된 CT 영상을 사이노그램(Full projection)에서 다운 샘플링하여 저밀도 촬영 CT 영상(sparse-view CT 영상)으로 재구성하는 단계와, (b-2)상기 (b-1)단계에서 획득된 sparse-view CT 영상을 상기 원본 영상에서 마이너스하여 방향성을 갖는 영상인 직선성 패턴(Streaking artifacts)을 획득하는 단계, 및 (b-3)상기 (b-2)단계에서 획득된 영상을 출력값으로 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 통해서 학습된 조건에 따라서 줄 인공물 영상을 추출하는 단계를 포함하게 구성할 수도 있다.In addition, step (b) includes the steps of (b-1) down-sampling the CT image obtained at a high dose from a sinogram (full projection) and reconstructing it into a low-density CT image (sparse-view CT image), (b) -2) obtaining linearity patterns (streaking artifacts) that are directional images by subtracting the sparse-view CT image obtained in step (b-1) from the original image, and (b-3) the ( Using the image obtained in step b-2) as an output value, it may be configured to include the step of extracting the line artefact image according to the condition learned through the artificial intelligence learning network of the multi-level wavelet-based U-Net structure.
또한, 상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 상기 (b)단계에서 발생한 직선성 패턴(Streaking artifacts)을 노이즈 제거 CNN(Convolutional Neural Network)과 이산웨이브렛변환(DWT;discrete wavelet transform), 그리고 역웨이브렛 변환(IWT;Inverse wavelet transform)을 이용하여 학습되게 구성한다.In addition, the artificial intelligence learning network of the multi-level wavelet-based U-Net structure removes noise from the linearity pattern (streaking artifacts) generated in step (b) with a convolutional neural network (CNN) and discrete wavelet transform (DWT; discrete). It is configured to be learned using wavelet transform) and inverse wavelet transform (IWT).
또한, 상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 CNN과 DWT 그리고 IWT를 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴(Streaking artifacts)의 특징들을 학습할 수 있다.In addition, the multi-level wavelet-based U-Net structure of the artificial intelligence learning network can learn features of streaking artifacts appearing in sparse-view CT images using CNN, DWT, and IWT.
또한, 상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 수학적 해석을 통해 상기 프레임 조건을 만족하는 상기 학습 모델을 생성하고, 상기 학습 모델에 의해 학습된 뉴럴 네트워크를 포함할 수 있으며, 풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 다중 해상도 뉴럴 네트워크를 포함할 수 있다.In addition, the multi-level wavelet-based U-Net structure of the artificial intelligence learning network generates the learning model that satisfies the frame condition through a convolution framelet-based mathematical analysis, and by the learning model It may include a trained neural network, and may include a multi-resolution neural network including a pooling layer and an unpooling layer.
따라서 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공신경망을 활용한 환자에게 저 선량을 달성하기 위해 Sparse-view 방법으로 획득할 때 발생하는 직선성 패턴을 제거하여 진단효율을 높일 수 있다.Therefore, according to the computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, the linear pattern that occurs when acquiring using the sparse-view method to achieve a low dose to a patient using an artificial neural network can be removed to increase the diagnostic efficiency.
또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 광자계수기반의 디텍터에서 발생하는 부족한 보정이나 오작동에 의해 발생되는 현상을 인공 신경망을 활용하기 때문에 영상의 화질을 개선할 수 있는 효과가 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, a phenomenon caused by insufficient correction or malfunction occurring in a photon count-based detector is corrected by using an artificial neural network. It has the effect of improving the picture quality of
또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공신경망을 활용한 직선성을 가지는 인공물 제거뿐만 아니라 다양한 진단 장치에 발생하는 인공물 제거에 도움을 줄 수 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, it is possible to not only remove linear artifacts using an artificial neural network but also to remove artifacts generated in various diagnostic devices. can
또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공 신경망을 활용하기 때문에 기존보다 빠른 스캔 시간의 컴퓨터 단층영상을 이용하여 면적이 넓은 흉부뿐만 아니라 무릎관절, 손등 뼈, 부비동, 유방 촬영 등 다른 신체에도 이용할 수 있는 효과가 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, since an artificial neural network is used, a computed tomography image with a faster scan time than before is used to not only the chest but also the knee with a large area. It has an effect that can be used on other body parts such as joints, bones of the back of the hand, sinuses, and mammography.
또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 인공 신경망을 활용한 컴퓨터 단층영상시스템이기 때문에 의료 시장 진출을 위한 데이터베이스로 이용될 수 있으며, 국내 의료기기의 산업화 및 기술개발에 기여할 수 있는 효과가 있다..In addition, according to the computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, since it is a computerized tomography image system using an artificial neural network, it can be used as a database for entering the medical market, and can be used as a database for domestic medical treatment. It has the effect of contributing to the industrialization and technological development of devices.
또한, 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 기존의 인공물을 제거하는 반복적 재구성방법에서는 계산 시간은 GPU를 사용하는 경우 약 60 내지 100초/슬라이스 인반면, 본 발명은 약 0.4 내지 0.5 초/슬라이스를 달성하여, 시간적으로 높은 효율을 가질 수 있다.In addition, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, the calculation time is about 60 to 100 seconds/slice in the case of using a GPU in the iterative reconstruction method to remove the existing artefacts On the other hand, the present invention achieves about 0.4 to 0.5 sec/slice, so that it can have high efficiency in time.
그리고 본 발명의 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법에 의하면, 기존 직선성 패턴 제거 방법은 원본 값을 주변 픽셀 값들의 보간값으로 대체하기 때문에, 원본 영상에 대한 정보 손실이 일어날 수 있으나, 본원 발명은 기존의 방법과는 DWT, IWT를 활용하였으며, 최신 의료영상기술로써 인공 신경망을 통해서 영상을 훈련시켜 인공물을 보정하여 원래 영상이 가지고 있는 정보를 이용하며 해상도를 유지시키는 효과가 있다.And, according to the computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence of the present invention, the existing linearity pattern removal method replaces the original value with the interpolated value of the surrounding pixel values, so information on the original image Although loss may occur, the present invention utilizes DWT and IWT compared to the existing method, and as the latest medical imaging technology, the image is trained through an artificial neural network to correct the artifact, and the information of the original image is used and the resolution is maintained. has the effect of making
도 1은 본 발명의 Sparse-view CT 재구성 방법의 프레임워크를 예시한 도면,
도 2는 Full projections을 이용한 Sparse-view CT 영상을 재구성하는 단계를 설명하기 위한 참고 도면,
도 3은 Sparse-view CT영상에서 나타나는 직선성 인공물의 feature들을 학습하는 과정과 관련된 도면,
도 4는 4레벨 웨이브렛을 이용한 인공물 feature 추출과정을 도시한 도면,
도 5는 원본영상에서 출력값을 얻는 방법을 설명하기 위한 도면,
도 6은 다중 레벨 웨이브렛 기반 U-Net구조의 인공지능 아키텍쳐를 예시한 도면,
도 7은 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 설명하기 위한 흐름도,
도 8은 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 장치의 구성도,
그리고
도 9는 여러 가지 방법으로 보정된 sparse-view CT영상을 예시한 도면이다.1 is a diagram illustrating the framework of the Sparse-view CT reconstruction method of the present invention;
2 is a reference diagram for explaining the step of reconstructing a sparse-view CT image using full projections;
3 is a view related to the process of learning features of linear artifacts appearing in sparse-view CT images;
4 is a diagram illustrating an artifact feature extraction process using a 4-level wavelet;
5 is a view for explaining a method of obtaining an output value from an original image;
6 is a diagram illustrating an artificial intelligence architecture of a multi-level wavelet-based U-Net structure;
7 is a flowchart for explaining a computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence;
8 is a block diagram of a computerized tomography image reconstruction apparatus for multi-level wavelet artificial intelligence-based dose reduction;
and
9 is a diagram illustrating a sparse-view CT image corrected by various methods.
본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되지 아니하며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms or words used in the present specification and claims are not to be construed as limited in their ordinary or dictionary meanings, and on the principle that the inventor can appropriately define the concept of the term in order to best describe his invention. It should be interpreted as meaning and concept consistent with the technical idea of the present invention.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈", "장치" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as “…unit”, “…group”, “module”, and “device” described in the specification mean a unit that processes at least one function or operation, which is implemented by a combination of hardware and/or software can be
명세서 전체에서 "및/또는"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및/또는 제3 항목"의 의미는 제1, 제2 또는 제3 항목뿐만 아니라 제1, 제2 또는 제3 항목들 중 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.Throughout the specification, the term “and/or” should be understood to include all combinations possible from one or more related items. For example, the meaning of “the first item, the second item and/or the third item” means to be presented from the first, second, or third item as well as two or more of the first, second, or third items. A combination of all possible items.
명세서 전체에서 각 단계들에 있어 식별부호(예를 들어, a, b, c, ...)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 한정하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In each step throughout the specification, identification symbols (eg, a, b, c, ...) are used for convenience of description, and identification codes do not limit the order of each step, and each step is Unless the context clearly dictates a specific order, the order may differ from the stated order. That is, each step may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.
이하, 도면을 참고하여 본 발명의 일실시예에 대하여 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
먼저, 본 발명은 Sparse-view CT 영상이 방사선 노출 빈도를 줄여 환자에 도달하는 방사선량을 줄일 수 있고, 영상획득 시간을 줄여주는 이점을 갖고 있으나, 노출 빈도 감소로 인하여 발생하는 영상의 줄 인공물(streaking artifacts)로 인해 진단에 문제가 발생할 수 있기 때문에 이를 인공지능으로 학습시킨 다음 Sparse-view CT 영상에서 줄 인공물이 제거된 재구성된 영상을 획득하게 하는 것이 하나의 특징이다.First, according to the present invention, the sparse-view CT image can reduce the amount of radiation reaching the patient by reducing the frequency of radiation exposure, and has the advantage of reducing the image acquisition time. Because streaking artifacts can cause problems in diagnosis, one feature is to learn it with artificial intelligence and then acquire a reconstructed image with line artifacts removed from the sparse-view CT image.
도 7은 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법을 설명하기 위한 흐름도로서, 도면을 참고하면, 본 발명의 일실시예에 의한 전산화 단층촬영(computed tomography) 영상의 직선성 패턴을 보정하기 위한 컴퓨터 단층영상 재구성 방법은, 저밀도 촬영 CT 영상(sparse-view CT 영상)을 획득하는 단계(S110)와, sparse-view CT 영상을 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크에 입력하여 방향성인 직선성 패턴(Streaking artifacts)을 보정하여 획득하는 단계(S120, S130)와 저밀도 촬영 CT 영상(sparse-view CT 영상)에서 상기 직선성 패턴을 마이너스하여 직선성 패턴이 제거된 영상을 획득하는 단계(S140)를 포함한다.7 is a flowchart for explaining a computer tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence. Referring to the drawings, a straight line of a computed tomography image according to an embodiment of the present invention A computerized tomography image reconstruction method for correcting a sexual pattern includes: acquiring a low-density CT image (sparse-view CT image) (S110); The linear pattern is obtained by correcting and obtaining directional streaking artifacts by input to the intelligent learning network (S120, S130) and subtracting the linearity pattern from the low-density CT image (sparse-view CT image). and acquiring the removed image (S140).
단계 S110은 전산화 단층촬영(computed tomography) 영상에서 줄 인공물과 같은 직선성 패턴을 보정하기 위한 저밀도 촬영 CT 영상(이하, sparse-view CT 영상)을 획득한다.Step S110 acquires a low-density CT image (hereinafter, sparse-view CT image) for correcting a linear pattern such as a line artifact in a computed tomography image.
Sparse-view CT는 방사선 노출 빈도를 줄여 환자에게 발생되는 피폭선량을 낮출 수 있는 가장 간단한 방법이다.Sparse-view CT is the simplest method to reduce the radiation exposure frequency and thereby lower the exposure dose to the patient.
하지만 노출 빈도를 줄이게 되면 환자에 투과되는 방사선량의 정보가 부족하여 영상을 받아들이는 신호부의 정보 손실이 발생된다. 이러한 정보손실은 영상의 진단이나 판독에 큰 문제를 줄 수 있을 뿐만 아니라, 또한 부족한 신호 및 정보로 영상을 재구성하였을 때 방향성을 가지는 직선성 패턴이 발생할 수 있다.However, if the exposure frequency is reduced, information on the amount of radiation transmitted to the patient is insufficient, and information loss occurs in the signal unit that receives the image. This loss of information may cause a great problem in diagnosing or reading an image, and also, a linear pattern having directionality may occur when an image is reconstructed with insufficient signals and information.
따라서, 단계110에서 획득된 Sparse-view CT는 직선성 패턴을 보정하기 위하여 인공지능 학습 네트워크로 입력된다(S120).Therefore, the sparse-view CT obtained in
S120에서는 단계 S130에서의 직선성 패턴(Streaking artifacts)을 추출하기 위하여 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크로 입력된다.In S120, it is input to the artificial intelligence learning network of a multi-level wavelet-based U-Net structure in order to extract the linearity patterns (streaking artifacts) in step S130.
본 발명의 인공지능 학습 네트워크는 Sparse-view CT에서 직선성 패턴(Streaking artifacts)을 추출하기 위하여 인공 신경망으로 학습된다.The artificial intelligence learning network of the present invention is trained with an artificial neural network to extract linear patterns (streaking artifacts) from sparse-view CT.
도면을 참조하여 인공지능 학습 방법에 대하여 설명한다.An artificial intelligence learning method will be described with reference to the drawings.
도 1은 본 발명 기반 Sparse-view CT 재구성 방법의 프레임워크로서, 먼저 고선량으로 획득된 영상을 사이노그램(Full projections)에서 다운 샘플링하여 Sparse-view CT 영상을 재구성한다.1 is a framework of a sparse-view CT reconstruction method based on the present invention. First, a sparse-view CT image is reconstructed by down-sampling an image obtained at a high dose in sinograms (full projections).
이렇게 재구성된 영상은 Convolutional Neural Network(CNN), Discrete wavelet transform (DWT), Inverse wavelet transform (IWT)을 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴의 feature들을 학습하고, 잔여(residual) 학습에 의해 학습된 학습 모델의 뉴럴 네트워크를 이용하여 Sparse-view CT 데이터에 대한 직선성 패턴을 쉽게 추출할 수 있는 것이다.This reconstructed image uses Convolutional Neural Network (CNN), Discrete wavelet transform (DWT), and Inverse wavelet transform (IWT) to learn features of linear patterns appearing in sparse-view CT images, and to learn the features of residual learning. It is possible to easily extract the linearity pattern for sparse-view CT data by using the neural network of the learning model learned by
도 2의 Full projections을 이용한 Sparse-view CT 영상을 재구성하는 단계를 설명하기 위한 참고 도면을 보면, Full projections을 이용하여 사이노그램(Full projections)에서 휘소 샘플링되고, 샘플링된 CT 영상은 여과후 역투영 FBP(Filtered BackProjection)를 이용하여 재구성하는 것이 도시되어 있다.Referring to the reference diagram for explaining the step of reconstructing the sparse-view CT image using the full projections of FIG. 2 , the CT image is sampled from the sinogram (full projections) using the full projections, and the sampled CT image is inversely filtered. Reconstruction using projected Filtered BackProjection (FBP) is shown.
상기와 같이 재구성된 CT 영상은 인공물 feature 추출과정으로 진행된다.The CT image reconstructed as described above proceeds with the artifact feature extraction process.
도 4는 4레벨 웨이브렛을 이용한 인공물 feature 추출과정을 도시한 도면이고, 도 3은 Sparse-view CT영상에서 나타나는 직선성 인공물의 feature들을 학습하는 과정과 관련된 도면이다.4 is a diagram illustrating an artifact feature extraction process using a 4-level wavelet, and FIG. 3 is a diagram related to a process of learning features of a linear artifact appearing in a sparse-view CT image.
도면을 참고하면, 4레벨 웨이브렛 변형을 이용하여 줄 인공물인 직선성 패턴의 feature를 추출하는 과정에 관한 것으로, 컨볼루션 신경망(CNN;Convolutional Neural Network), 이산웨이브렛변환(DWT;Discrete wavelet transform), 역웨이브렛(IWT;Inverse wavelet transform)을 이용하여 sparse-view CT 영상에서 나타나는 직선성 인공물의 feature들을 학습하는 것으로, DWT와 IWT는 각 레벨마다 방향성을 가지고 있는 특징이 있어 방향성이 분명한 인공물에 대한 특징을 추출하기에 적합하다.Referring to the drawings, it relates to a process of extracting a feature of a linear pattern, which is a line artifact, using 4-level wavelet transformation. Convolutional Neural Network (CNN), Discrete wavelet transform (DWT) ) and inverse wavelet transform (IWT) to learn the features of linear artifacts appearing in sparse-view CT images. It is suitable for extracting features for
컨볼루션 신경망(convolutional neural network: 이하 CNN) 기법은 신경망(neural network)을 모델링하는 인공신경망 모델링 기법 하나로 특히 영상과 같은 2차원 입력 데이터의 패턴을 인식하고 추정하는데 유용한 기법으로 알려져 있다.A convolutional neural network (CNN) technique is known as an artificial neural network modeling technique for modeling a neural network, and is particularly useful for recognizing and estimating patterns of two-dimensional input data such as images.
원본 영상을 이산웨이브렛변환(DWT;discrete wavelet transform)하여 4배수의 영상으로 분리하고, 분리된 영상을 역웨이브렛 변환(IWT;Inverse wavelet transform)하여 원본 영상으로 복원시키는 것이다.Discrete wavelet transform (DWT) is performed on the original image to separate it into quadruple images, and inverse wavelet transform (IWT) is performed on the separated image to restore the original image.
도 3을 참고하면, 재구성된 Sparse-view CT영상을 컨볼루션 신경망(CNN; Convolutional Neural Network)을 통하여 노이즈를 제거하고, 노이즈가 제거된 512ch의 원본 영상을 1단계 DWT를 수행하면 사방 256ch의 4 화면으로, 2단계 DWT에서는 사방 128ch 16 화면으로 3단계에서는 사방 64ch의 64 화면 그리고 4단계에서는 사방 32ch의 256 화면으로 되면서 직선성 패턴의 특징을 추출하는 것이다.Referring to FIG. 3, if noise is removed from the reconstructed sparse-view CT image through a convolutional neural network (CNN), and the noise-removed 512ch original image is subjected to step 1 DWT, 4 As a screen, in
즉, 원본 영상에서 Sparse-view CT영상을 제외하면 잔여물로 직선성 패턴(streaking artifacts)을 얻게 되고, 이를 출력값으로 학습시켜 방향성을 가지는 특징을 이용하여 인공지능 학습 수렴에 용이하게 사용하는 것이다(도 5 참고).That is, if the sparse-view CT image is excluded from the original image, streaking artifacts are obtained as residuals, and it is learned as an output value and is easily used for AI learning convergence by using the directional feature ( see Fig. 5).
이렇게 만들어진 방향성을 가지는 직선성 패턴(streaking artifacts)은 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 신경망을 통해서 영상을 훈련시켜 개선하는 것이다.The streaking artifacts created in this way are improved by training the image through an artificial neural network of a multi-level wavelet-based U-Net structure.
도 6의 다중 레벨 웨이브렛 기반 U-Net구조의 인공지능 아키텍쳐를 예시한 도면을 참고하면, 저 선량을 가지는 Sparse-view CT 영상을 Input layer로 하여 내장된 최적화 알고리즘(ADAM optimization algorithm)을 이용하여 up and down sampling으로 DWT와 IWT를 사용하여 Output layer로 직선성 패턴(Streaking artifacts)을 갖는 영상을 출력하고, 이렇게 해서 얻어진 출력 영상을 Input layer에 들어간 영상에서 빼주면 아티팩트가 제거된 영상을 만들 수 있는 것이다.Referring to the diagram illustrating the artificial intelligence architecture of the multi-level wavelet-based U-Net structure of FIG. 6, using a sparse-view CT image having a low dose as an input layer, using the built-in optimization algorithm (ADAM optimization algorithm) Using DWT and IWT for up and down sampling, an image with streaking artifacts is output to the output layer, and the resulting output image is subtracted from the image entered in the input layer to create an image with artifacts removed. there will be
즉, 본 발명의 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 CNN과 DWT 그리고 IWT를 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴(Streaking artifacts)의 특징들을 학습시키는 것이다.That is, the artificial intelligence learning network of the multi-level wavelet-based U-Net structure of the present invention learns the characteristics of the streaking artifacts appearing in the sparse-view CT image using CNN, DWT, and IWT.
다시 말하면, 본 발명의 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 컨볼루션 프레임렛(convolution framelet) 기반의 수학적 해석을 통해 상기 프레임 조건을 만족하는 상기 학습 모델을 생성하고, 상기 학습 모델에 의해 학습된 뉴럴 네트워크가 포함된다.In other words, the artificial intelligence learning network of the multi-level wavelet-based U-Net structure of the present invention generates the learning model that satisfies the frame condition through a convolution framelet-based mathematical analysis, and A neural network trained by the model is included.
도 6에 도시된 바와 같이, 각 네트워크는 선형 변환(linear transform) 연산을 수행하는 컨볼루션 레이어, 정규화(normalization) 연산을 수행하는 배치 노말라이제이션(batch normalization) 레이어, 비선형 함수(nonlinear function) 연산을 수행하는 ReLU(rectified linear unit) 레이어 및 연쇄를 가진 경로 연결을 포함한다. As shown in FIG. 6 , each network includes a convolution layer that performs a linear transform operation, a batch normalization layer that performs a normalization operation, and a nonlinear function operation. It includes a path connection with a rectified linear unit (ReLU) layer and concatenation that performs
특히, 각 스테이지는 4 × 4 커널들을 갖는 컨볼루션, 배치 노말라이제이션 및 ReLU 레이어들로 구성된 4개의 순차적인 레이어들을 포함한다. 마지막 스테이지는 두 개의 순차적인 레이어들과 마지막 레이어를 포함하며, 마지막 레이어는 1 × 1 커널을 갖는 컨볼루션만을 포함한다. 각 컨볼루션 레이어에 대한 채널 수는 도 6에 도시되어 있으며, 각 풀링 레이어 후에 채널 수는 두 배가 된다. In particular, each stage contains 4 sequential layers consisting of convolution with 4x4 kernels, batch normalization and ReLU layers. The last stage contains two sequential layers and the last layer, and the last layer contains only the convolution with 1 × 1 kernel. The number of channels for each convolutional layer is shown in Fig. 6, and the number of channels is doubled after each pooling layer.
본 발명의 장치에서 줄 인공물과 같은 직선성 패턴을 추출하기 위해 사용되는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 컨볼루션 프레임렛(convolution framelet)기반의 수학적 해석을 통해 프레임 조건을 만족하는 학습 모델을 생성하고, 학습 모델에 의해 학습된 뉴럴 네트워크를 포함할 수 있으며, 풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 다중 해상도 뉴럴 네트워크를 포함할 수 있다.The artificial intelligence learning network of the multi-level wavelet-based U-Net structure used for extracting linearity patterns such as line artifacts in the device of the present invention uses a convolution framelet-based mathematical analysis to determine the frame conditions. A satisfactory learning model is generated, and a neural network trained by the learning model may be included, and a multi-resolution neural network including a pooling layer and an unpooling layer may be included.
또한, 뉴럴 네트워크는 풀링 레이어에서 상기 언풀링 레이어로의 바이패스 연결을 포함할 수 있다.In addition, the neural network may include a bypass connection from the pooling layer to the unpooling layer.
도 9의 여러 가지 방법으로 보정된 sparse-view CT영상을 예시한 도면을 참고하면, 원본 영상을 60장으로 하여 재구성된 parse-view CT영상에서 여러 가지 방법으로 보정된 영상이 예시되어 있다.Referring to the drawings exemplifying the sparse-view CT images corrected by various methods in FIG. 9 , images corrected by various methods are illustrated in the parse-view CT images reconstructed using 60 original images.
좌측영상부터 기준영상(Reference), 60view, 보간법(Interpolation), 진보적인 영상 재구성 방법(예:adaptive-steepest-descent-projection-onto-convex-sets(ASD-POCS), U-net, 본 발명의 MWCNN에 의한 보정된 영상이 예시되어 있다.From the left image, reference image (Reference), 60view, interpolation, progressive image reconstruction method (eg, adaptive-steepest-descent-projection-onto-convex-sets (ASD-POCS), U-net, of the present invention The corrected image by MWCNN is illustrated.
도 8은 본 발명의 일 실시예에 따른 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 장치의 구성을 도시한 것이다.8 is a diagram illustrating the configuration of a computerized tomography image reconstruction apparatus for dose reduction based on multi-level wavelet artificial intelligence according to an embodiment of the present invention.
도면을 참고하면, 본 발명의 일 실시예에 따른 컴퓨터 단층영상 재구성 장치(100)는 수신부(110), 영상처리부(120), 직선성 패턴이 제거된 영상을 출력하는 출력부(130)를 포함한다.Referring to the drawings, the computer tomography
수신부(110)는 희소 뷰(sparse-view) 전산단층 촬영 데이터를 수신한다.The
영상처리부(120)는 미리 설정된 프레임 조건을 만족하며 컨볼루션 프레임렛(convolution framelet) 기반의 학습 모델에 대한 뉴럴 네트워크를 이용하여 희소 뷰 전산단층(sparse-view CT) 촬영 데이터에 대한 직선성 패턴을 찾아내어 원본영상에서 이를 마이너스하여 직선성 패턴이 제거된 영상을 재구성하는 것이다.The
이는 직선성 패턴이 방향성을 갖고 있기 때문에 인공지능 학습 수렴에 용이하기 때문이다.This is because it is easy to converge AI learning because the linear pattern has a direction.
이를 위하여 영상처리부(120)는 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 통하여 직선성 패턴에 대한 특징을 추출하도록 학습시키는 것이다.To this end, the
즉, 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는 고선량으로 획득된 영상을 사이노그램(Full projections)에서 다운 샘플링하여 저밀도 촬영 CT 영상(sparse-view CT 영상)으로 재구성하고, 재구성된 sparse-view CT 영상을 상기 원본 영상에서 마이너스하여 방향성을 갖는 영상인 직선성 패턴(Streaking artifacts)을 획득하고, 획득된 영상을 출력값으로 학습시켜 방향성을 가지는 직선성 패턴의 특징을 이용하여 학습하는 것이다.That is, the multi-level wavelet-based U-Net structure of artificial intelligence learning network downsamples the high-dose images from sinograms (full projections) and reconstructs them into low-density CT images (sparse-view CT images), By subtracting the reconstructed sparse-view CT image from the original image, it acquires directional patterns (streaking artifacts), and learns the acquired image as an output value using the characteristics of the directional linear pattern. will do
그 구체적인 방법은 상술한 내용들을 참고하면 된다.For the specific method, refer to the above-mentioned contents.
결국 영상처리부(120)는 프레임 조건을 만족하며 잔여(residual) 학습에 의해 학습된 학습 모델의 뉴럴 네트워크를 이용하여 희소 뷰 전산단층 촬영 데이터에 대한 직선성 패턴을 쉽게 추출할 수 있는 것이다.As a result, the
비록, 도 8의 장치에서 그 설명이 생략되었더라도, 도 8을 구성하는 각 구성 수단은 도 1 내지 도 6에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다.Although the description of the device of FIG. 8 is omitted, each component constituting FIG. 8 may include all the contents described with reference to FIGS. 1 to 6 , which is apparent to those skilled in the art.
이상에서 본 발명은 기재된 구체예에 대하여 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허 청구범위에 속함은 당연한 것이다.Although the present invention has been described in detail with respect to the described embodiments, it is obvious to those skilled in the art that various changes and modifications are possible within the scope of the technical spirit of the present invention, and it is natural that such variations and modifications belong to the appended claims.
100 : 컴퓨터 단층영상 재구성 장치
110 : 수신부
120 : 영상처리부
130 : 출력부100: computer tomography image reconstruction device
110: receiver
120: image processing unit
130: output unit
Claims (10)
(a)저밀도 촬영 CT 영상(sparse-view CT 영상)을 획득하는 단계;
(b)상기 sparse-view CT 영상을 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크에 입력하여 방향성인 줄 인공물 영상(Streaking artifacts)을 보정하여 획득하는 단계;및
(c)상기 저밀도 촬영 CT 영상(sparse-view CT 영상)에서 상기 줄 인공물 영상을 마이너스하여 줄 인공물을 제거하는 단계;
를 포함하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
A method for reconstructing a computed tomography image for correcting artifacts in a computed tomography image, the method comprising:
(a) obtaining a low-density CT image (sparse-view CT image);
(b) inputting the sparse-view CT image into an artificial intelligence learning network of a multi-level wavelet-based U-Net structure to correct and obtain directional streak artifacts; And
(c) removing the line artefact by subtracting the line artefact image from the low-density imaging CT image (sparse-view CT image);
A computerized tomography image reconstruction method for dose reduction based on artificial intelligence-based multi-level wavelet comprising a.
상기 (b)단계는
(b-1)고선량으로 획득된 CT 영상을 사이노그램(Full projection)에서 다운 샘플링하여 저밀도 촬영 CT 영상(sparse-view CT 영상)으로 재구성하는 단계;
(b-2)상기 (b-1)단계에서 획득된 sparse-view CT 영상을 상기 원본 영상에서 마이너스하여 방향성을 갖는 영상인 줄 인공물 영상(Streaking artifacts)을 획득하는 단계;및
(b-3)상기 (b-2)단계에서 획득된 영상을 출력값으로 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크를 통해서 학습된 조건에 따라서 줄 인공물 영상을 추출하는 단계;
를 포함하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
Step (b) is
(b-1) down-sampling the CT image acquired at high dose from a sinogram (full projection) and reconstructing it into a low-density CT image (sparse-view CT image);
(b-2) subtracting the sparse-view CT image obtained in step (b-1) from the original image to obtain streak artifacts, which are directional images; and
(b-3) extracting a line artefact image according to the conditions learned through an artificial intelligence learning network of a multi-level wavelet-based U-Net structure using the image obtained in step (b-2) as an output value;
A computerized tomography image reconstruction method for dose reduction based on artificial intelligence-based multi-level wavelet comprising a.
상기 (c)단계는
sparse-view CT 영상을 여과 후 역투영 FBP(filtered backprojection)를 이용하여 이미지를 재구성하고, 이로 인해 발생하는 줄 인공물 영상(Streaking artifacts)을 원본 영상에서 마이너스하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
Step (c) is
After filtering the sparse-view CT image, the image is reconstructed using filtered backprojection (FBP), and the resulting streak artifacts are subtracted from the original image. Multi-level wavelet AI-based dose reduction A computerized tomography image reconstruction method for
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
상기 (b)단계에서 발생한 직선성 패턴(Streaking artifacts)을 노이즈 제거 CNN(Convolutional Neural Network)과 이산웨이브렛변환(DWT;discrete wavelet transform), 그리고 역웨이브렛 변환(IWT;Inverse wavelet transform)을 이용하여 학습되는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
Using a convolutional neural network (CNN), discrete wavelet transform (DWT), and inverse wavelet transform (IWT) to remove noise from the streaking artifacts generated in step (b) Multi-level wavelet artificial intelligence-based computerized tomography image reconstruction method for dose reduction.
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
CNN과 DWT 그리고 IWT를 이용하여 sparse-view CT 영상에서 나타나는 직선성 패턴(Streaking artifacts)의 특징들을 학습하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence that learns the characteristics of streaking artifacts in sparse-view CT images using CNN, DWT and IWT.
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
컨볼루션 프레임렛(convolution framelet) 기반의 수학적 해석을 통해 상기 프레임 조건을 만족하는 상기 학습 모델을 생성하고, 상기 학습 모델에 의해 학습된 뉴럴 네트워크를 포함하는 것을 특징으로 하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
Multi-level wavelet artificial intelligence based, characterized in that it generates the learning model that satisfies the frame condition through a convolution framelet-based mathematical analysis, and includes a neural network trained by the learning model A computerized tomography image reconstruction method for dose reduction.
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
풀링(pooling) 레이어와 언풀링(unpooling) 레이어를 포함하는 다중 해상도 뉴럴 네트워크를 포함하는 것을 특징으로 하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
A computer tomography image reconstruction method for multi-level wavelet AI-based dose reduction, comprising a multi-resolution neural network including a pooling layer and an unpooling layer.
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
4레벨 웨이브렛 변형을 이용하여 줄 인공물 영상(Streaking artifacts)을 출력하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet AI that outputs streaking artifacts using 4-level wavelet transformation.
상기 다중 레벨 웨이브렛 기반 U-Net 구조의 인공 지능 학습 네트워크는
저 선량을 가지는 Sparse-view CT 영상을 Input layer로 하여 내장된 최적화 알고리즘(ADAM optimization algorithm)을 이용하여 up and down sampling으로 DWT와 IWT를 사용하여 Output layer로 직선성 패턴(Streaking artifacts)을 갖는 영상을 출력하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
The method according to claim 1,
The multi-level wavelet-based U-Net structure of artificial intelligence learning network is
Image with sparse-view CT image with low dose as input layer and linearity pattern (streaking artifacts) as output layer using DWT and IWT with up and down sampling using the built-in optimization algorithm (ADAM optimization algorithm) A computerized tomography image reconstruction method for dose reduction based on AI-based multi-level wavelet that outputs
상기 직선성 패턴(Streaking artifacts)을 갖는 영상을 input layer에 들어간 영상에서 다시 빼주면 아티펙트가 제거된 영상을 생성하여 출력하는 다중 레벨 웨이브렛 인공지능 기반 선량 저 감화를 위한 컴퓨터 단층영상 재구성 방법.
10. The method of claim 9,
A computerized tomography image reconstruction method for dose reduction based on multi-level wavelet artificial intelligence that generates and outputs an image from which artifacts are removed by subtracting the image having the linearity pattern (streaking artifacts) from the image that has entered the input layer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210051285A KR102553068B1 (en) | 2021-04-20 | 2021-04-20 | Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210051285A KR102553068B1 (en) | 2021-04-20 | 2021-04-20 | Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220144668A true KR20220144668A (en) | 2022-10-27 |
KR102553068B1 KR102553068B1 (en) | 2023-07-06 |
Family
ID=83810420
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210051285A KR102553068B1 (en) | 2021-04-20 | 2021-04-20 | Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102553068B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190024636A (en) * | 2017-08-30 | 2019-03-08 | 한국과학기술원 | Method and apparatus for reconstructing image based on neural network |
KR20190102770A (en) | 2018-02-27 | 2019-09-04 | 기초과학연구원 | Method for calibrating beam-hardening artifacts of computed tomography image and computed tomography apparatus using thereof |
KR102039472B1 (en) * | 2018-05-14 | 2019-11-01 | 연세대학교 산학협력단 | Device and method for reconstructing computed tomography image |
KR20190135618A (en) * | 2018-05-29 | 2019-12-09 | 한국과학기술원 | Method for processing interior computed tomography image using artificial neural network and apparatus therefor |
KR20190135616A (en) * | 2018-05-29 | 2019-12-09 | 한국과학기술원 | Method for processing sparse-view computed tomography image using artificial neural network and apparatus therefor |
JP2020099662A (en) * | 2018-12-20 | 2020-07-02 | キヤノンメディカルシステムズ株式会社 | X-ray CT system and method |
-
2021
- 2021-04-20 KR KR1020210051285A patent/KR102553068B1/en active IP Right Grant
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190024636A (en) * | 2017-08-30 | 2019-03-08 | 한국과학기술원 | Method and apparatus for reconstructing image based on neural network |
KR20190102770A (en) | 2018-02-27 | 2019-09-04 | 기초과학연구원 | Method for calibrating beam-hardening artifacts of computed tomography image and computed tomography apparatus using thereof |
KR102039472B1 (en) * | 2018-05-14 | 2019-11-01 | 연세대학교 산학협력단 | Device and method for reconstructing computed tomography image |
KR20190135618A (en) * | 2018-05-29 | 2019-12-09 | 한국과학기술원 | Method for processing interior computed tomography image using artificial neural network and apparatus therefor |
KR20190135616A (en) * | 2018-05-29 | 2019-12-09 | 한국과학기술원 | Method for processing sparse-view computed tomography image using artificial neural network and apparatus therefor |
JP2020099662A (en) * | 2018-12-20 | 2020-07-02 | キヤノンメディカルシステムズ株式会社 | X-ray CT system and method |
Non-Patent Citations (1)
Title |
---|
Minjae Lee, et al., "Sparse-view CT reconstruction based on multi-level wavelet convolution neural network", Physica Medica 80 (2020)* * |
Also Published As
Publication number | Publication date |
---|---|
KR102553068B1 (en) | 2023-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11120582B2 (en) | Unified dual-domain network for medical image formation, recovery, and analysis | |
JP6855223B2 (en) | Medical image processing device, X-ray computer tomographic imaging device and medical image processing method | |
Mehranian et al. | X-ray CT metal artifact reduction using wavelet domain $ L_ {0} $ sparse regularization | |
CN108961237B (en) | Low-dose CT image decomposition method based on convolutional neural network | |
JP4919408B2 (en) | Radiation image processing method, apparatus, and program | |
CN111429379B (en) | Low-dose CT image denoising method and system based on self-supervision learning | |
CN110223255B (en) | Low-dose CT image denoising and recursion method based on residual error coding and decoding network | |
CN112258415B (en) | Chest X-ray film super-resolution and denoising method based on generation countermeasure network | |
CN112381741B (en) | Tomography image reconstruction method based on SPECT data sampling and noise characteristics | |
CN112017131B (en) | CT image metal artifact removing method and device and computer readable storage medium | |
CN111915696A (en) | Three-dimensional image data-assisted low-dose scanning data reconstruction method and electronic medium | |
Zhou et al. | DuDoUFNet: dual-domain under-to-fully-complete progressive restoration network for simultaneous metal artifact reduction and low-dose CT reconstruction | |
Gajera et al. | CT-scan denoising using a charbonnier loss generative adversarial network | |
Peng et al. | A cross-domain metal trace restoring network for reducing X-ray CT metal artifacts | |
CN113706409A (en) | CBCT image enhancement method and device based on artificial intelligence and storage medium | |
CN109523458A (en) | A kind of high-precision sparse angular CT method for reconstructing of the sparse induction dynamic guiding filtering of combination | |
Fournié et al. | CT field of view extension using combined channels extension and deep learning methods | |
WO2022257959A1 (en) | Multi-modality and multi-scale feature aggregation for synthesizing spect image from fast spect scan and ct image | |
Hegazy et al. | Half-scan artifact correction using generative adversarial network for dental CT | |
Ketola et al. | Deep learning-based sinogram extension method for interior computed tomography | |
CN109472836B (en) | Artifact correction method in CT iterative reconstruction | |
WO2023000244A1 (en) | Image processing method and system, and application of image processing method | |
CN112258438B (en) | LDCT image recovery method based on unpaired data | |
KR102553068B1 (en) | Sparse-view ct reconstruction based on multi-level wavelet convolutional neural network | |
CN116664710A (en) | CT image metal artifact unsupervised correction method based on transducer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |