KR102182048B1 - System and method for scatter correction of x-ray image - Google Patents

System and method for scatter correction of x-ray image Download PDF

Info

Publication number
KR102182048B1
KR102182048B1 KR1020180144769A KR20180144769A KR102182048B1 KR 102182048 B1 KR102182048 B1 KR 102182048B1 KR 1020180144769 A KR1020180144769 A KR 1020180144769A KR 20180144769 A KR20180144769 A KR 20180144769A KR 102182048 B1 KR102182048 B1 KR 102182048B1
Authority
KR
South Korea
Prior art keywords
image
scattering
ray
simulation
ray image
Prior art date
Application number
KR1020180144769A
Other languages
Korean (ko)
Other versions
KR20200059712A (en
Inventor
이희신
김경우
이준환
장동규
Original Assignee
이희신
김경우
장동규
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이희신, 김경우, 장동규, 전북대학교산학협력단 filed Critical 이희신
Priority to KR1020180144769A priority Critical patent/KR102182048B1/en
Publication of KR20200059712A publication Critical patent/KR20200059712A/en
Application granted granted Critical
Publication of KR102182048B1 publication Critical patent/KR102182048B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography

Abstract

본 발명의 일 실시예에 따른 엑스선 영상 산란 보정 시스템은, 3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 생성하는 훈련영상 생성부; 및 상기 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여 엑스선 영상 획득 장치에 의해 촬영된 엑스선 영상의 산란을 보정하는 산란 보정부를 포함할 수 있다.An X-ray image scattering correction system according to an embodiment of the present invention includes: a training image generator configured to generate a simulation image with scattering lines and a target image without scattering lines through Monte Carlo simulation using a 3D volume image; And a scattering correction unit for correcting scattering of an X-ray image captured by an X-ray image acquisition apparatus using a deep learning algorithm trained using the simulation image and the target image.

Description

엑스선 영상 산란 보정 시스템 및 방법 {SYSTEM AND METHOD FOR SCATTER CORRECTION OF X-RAY IMAGE}X-ray image scattering correction system and method {SYSTEM AND METHOD FOR SCATTER CORRECTION OF X-RAY IMAGE}

본 출원은 엑스선 영상 산란 보정 시스템 및 방법에 관한 것이다.The present application relates to an X-ray image scattering correction system and method.

엑스선 영상 시스템은 촬영 대상을 투과하는 광자의 감쇠 정도를 검출기에서 계측하여 영상화 하는 기술로 의료분야에서 환자의 병변을 진단하는데 유용하게 사용되고 있다. 엑스선 영상 시스템에서 엑스선이 촬영 대상을 투과하는 길이가 길수록 광자는 직진으로 투과하지 못하고 산란될 확률이 높아진다. 여기서 의미 있는 정보는 촬영 대상에 의해 감쇠된 일차선(직선경로의 광자)이므로, 촬영 대상 내부에서 발생한 산란선(직선경로에서 벗어난 광자, 이차선)은 엑스선 영상의 품질을 저하시키는 심각한 잡음 인자로 작용한다. 광자의 산란이 많이 발생하는 경우 영상의 대조도 및 선예도가 떨어지지만, 더 많은 광자를 사용할수록 더 좋은 영상 획득이 가능하다. 하지만 많은 광자를 사용할수록 촬영 대상의 피폭 선량이 증가한다는 문제가 발생한다. 이로 인해 의료분야의 엑스선 영상 시스템에서 환자의 피폭선량을 증가시키지 않고 영상의 화질을 향상시키기 위한 산란선 제거는 아주 중요한 문제로 인식되고 있으며, 지금까지 산란선을 제거하거나 보정하기 위한 연구가 꾸준히 진행되고 있다.The X-ray imaging system is a technology for imaging by measuring the attenuation of photons passing through an object to be photographed by a detector, and is usefully used to diagnose patient lesions in the medical field. In the X-ray imaging system, the longer the X-rays pass through the object to be photographed, the higher the probability that photons cannot be transmitted straight ahead and scattered. Since the meaningful information here is the primary line (photons in a straight path) attenuated by the subject, scattered lines (photons out of the straight path, secondary lines) generated inside the subject are serious noise factors that deteriorate the quality of the X-ray image. Works. When a large number of photons are scattered, the contrast and sharpness of the image decrease, but the more photons are used, the better the image can be obtained. However, a problem arises that the more photons are used, the more the exposure dose to the subject is increased. For this reason, in the medical X-ray imaging system, the removal of scattered rays to improve the image quality without increasing the patient's exposure dose is recognized as a very important problem, and until now, research to remove or correct scattered rays has been continuously conducted. Has become.

현재까지 제안된 산란 보정 방법들은 크게 장비의 물리적인 특성을 이용해 문제를 해결하는 물리적 산란 제거/보정 방법과 획득한 신호로부터 산란 신호를 추출하여 제거하는 계산적 산란 보정 방법으로 나눌 수 있다.The scattering correction methods proposed so far can be largely divided into a physical scatter removal/correction method that solves a problem using the physical characteristics of the equipment, and a computational scatter correction method that extracts and removes a scattering signal from the acquired signal.

구체적으로, 물리적 산란 제거/보정 방법으로는 촬영 부위와 엑스선 검출기 사이에 반 산란 격자(anti-scatter grid)를 놓고 산란선을 제거하는 방법, 산란 성분을 직접 측정하여 보정하는 측정 기반 산란 보정 방법 등이 있고, 계산적 산란 보정 방법으로는 산란 커널을 추정해서 역합성곱(de-convolution)을 수행하는 합성곱(convolution) 방법, 몬테카를로 시뮬레이션을 이용해 반복적으로 산란을 보정하는 몬테카를로 기반 반복적 산란 보정 방법 등이 있다.Specifically, physical scattering removal/correction methods include a method of removing scattered rays by placing an anti-scatter grid between the imaging area and an X-ray detector, and a measurement-based scattering correction method that directly measures and corrects scattering components. The computational scattering correction method includes a convolution method that performs de-convolution by estimating a scattering kernel, and a Monte Carlo-based iterative scatter correction method that repeatedly corrects the scattering using Monte Carlo simulation. have.

그러나, 종래의 물리적 산란 제거/보정 방법은, 기존 시스템에 물리적인 기구 등을 추가해야 하며, 산란의 추정 또는 제거를 위해 일정량의 엑스선이 차단 되기 때문에 차단된 선량 보상을 위해 피폭량을 늘리거나 영상의 화질 저하를 감안해야 한다는 단점이 있다.However, the conventional physical scattering removal/correction method requires adding a physical device to the existing system, and since a certain amount of X-rays is blocked to estimate or remove scattering, increase the exposure dose or increase the amount of exposure to compensate for the blocked dose. There is a drawback of having to consider the deterioration of image quality.

또한, 종래의 계산적 산란 보정 방법의 경우, 합성곱 방법은 피사체가 동일한 물질로 이루어져 있을 경우 성능이 보장되지만 인체의 경우와 같이 여러 가지 물질로 이루어져 있는 경우 성능이 크게 떨어진다는 단점이 있고, 몬테카를로 기반 반복적 산란 보정 방법은 방대한 연산량으로 인해 임상에 사용이 불가능할 정도의 처리속도를 가진다는 것과 2차원 영상 시스템에는 적용이 불가능 하다는 단점이 있다.In addition, in the case of the conventional computational scattering correction method, the convolution method guarantees performance when the subject is made of the same material, but has a disadvantage that performance is greatly degraded when the subject is made of various materials, such as in the case of the human body. The repetitive scattering correction method has disadvantages that it has a processing speed that cannot be used clinically due to a large amount of computation, and that it cannot be applied to a 2D imaging system.

따라서, 당해 기술분야에서는 종래의 산란 보정 방법들의 단점을 극복하면서 엑스선 영상의 산란 보정 성능을 향상시키기 위한 방안이 요구되고 있다.Therefore, in the art, there is a need for a method for improving scattering correction performance of an X-ray image while overcoming the disadvantages of conventional scattering correction methods.

상기 과제를 해결하기 위해서, 본 발명의 일 실시예는 엑스선 영상 산란 보정 시스템을 제공한다.In order to solve the above problems, an embodiment of the present invention provides an X-ray image scattering correction system.

상기 엑스선 영상 산란 보정 시스템은, 3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 생성하는 훈련영상 생성부; 및 상기 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여 엑스선 영상 획득 장치에 의해 촬영된 엑스선 영상의 산란을 보정하는 산란 보정부를 포함할 수 있다.The X-ray image scattering correction system includes: a training image generator configured to generate a simulation image with scattered rays and a target image without scattering rays through Monte Carlo simulation using a 3D volume image; And a scattering correction unit for correcting scattering of an X-ray image captured by an X-ray image acquisition apparatus using a deep learning algorithm trained using the simulation image and the target image.

또한, 본 발명의 다른 실시예는 엑스선 영상 산란 보정 방법을 제공한다.In addition, another embodiment of the present invention provides a method for correcting scattering of an X-ray image.

상기 엑스선 영상 산란 보정 방법은, 3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 포함하는 훈련영상을 생성하는 단계; 및 상기 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여 입력된 엑스선 영상의 산란을 보정하는 단계를 포함할 수 있다.The X-ray image scattering correction method includes: generating a training image including a simulation image with scattering rays and a target image with no scattering rays through Monte Carlo simulation using a 3D volume image; And correcting the scattering of the input X-ray image using a deep learning algorithm trained using the simulation image and the target image.

덧붙여 상기한 과제의 해결수단은, 본 발명의 특징을 모두 열거한 것이 아니다. 본 발명의 다양한 특징과 그에 따른 장점과 효과는 아래의 구체적인 실시형태를 참조하여 보다 상세하게 이해될 수 있을 것이다.In addition, the solution to the above-described problem does not enumerate all the features of the present invention. Various features of the present invention and advantages and effects thereof may be understood in more detail with reference to the following specific embodiments.

본 발명의 일 실시예에 따르면, 기존의 산란 보정 방법들의 단점을 극복하면서 엑스선 영상의 산란 보정 성능을 크게 향상시킬 수 있다.According to an embodiment of the present invention, it is possible to greatly improve scattering correction performance of an X-ray image while overcoming disadvantages of conventional scattering correction methods.

도 1은 본 발명의 일 실시예에 따른 엑스선 영상 산란 보정 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따라 몬테카를로 시뮬레이션을 이용하여 훈련영상을 생성하는 일 예를 도시하는 도면이다.
도 3은 본 발명의 일 실시예에 따라 딥러닝 알고리즘의 훈련을 위한 목표영상을 생성하는 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따라 산란 보정부에서 사용되는 딥러닝 모델을 도시하는 도면이다.
도 5는 도 4에 도시된 딥러닝 모델 설계 및 해당 딥러닝 모델에서 주파수 성분별 훈련을 수행하는 과정을 설명하기 위한 도면이다.
도 6은 도 4에 도시된 Ls-Net의 dilation rate를 나타내는 그래프이다.
도 7은 도 4에 도시된 Ls-Net의 누적 수용영역 크기를 나타내는 그래프이다.
도 8은 본 발명의 일 실시예에 따른 GATE 코드를 이용한 엑스선 영상 시뮬레이션도를 도시하는 도면이다.
도 9는 본 발명의 일 실시예에 따라 엑스선 영상 시뮬레이션에 사용된 3차원 인체 CT 영상 중 네트워크 훈련용 영상을 도시하는 도면이다.
도 10은 본 발명의 일 실시예에 따라 엑스선 영상 시뮬레이션에 사용된 3차원 인체 CT 영상 중 네트워크 테스트용 영상을 도시하는 도면이다.
도 11은 본 발명의 일 실시예에 따른 엑스선 영상 시뮬레이션 결과를 도시하는 도면이다.
도 12는 본 발명의 일 실시예에 따른 네트워크 훈련에 따른 손실 및 테스트 영상의 SSIM, RMSE를 나타내는 그래프이다.
도 13은 본 발명의 일 실시예에 따른 엑스선 산란성분 예측 결과를 도시하는 도면이다.
도 14는 종래 기술에 따른 몬테카를로 기반 반복적 산란 보정 방법에 의한 산란 보정 결과를 도시하는 도면이다.
도 15는 종래 기술에 따른 몬테카를로 기반 반복적 산란 보정 방법의 반복 횟수에 따른 RMSE를 나타내는 그래프이다.
도 16은 본 발명의 일 실시예에 따른 산란 보정 결과를 도시하는 도면이다.
도 17은 본 발명의 일 실시예에 따라 Ls-Net 및 Hs-Net에 의한 산란 보정 영상의 3D 재구성 결과 및 프로파일을 도시하는 도면이다.
도 18은 종래 기술 및 본 발명의 일 실시예에 의한 산란 보정 영상의 3D 재구성 결과 및 프로파일을 도시하는 도면이다.
도 19는 본 발명의 다른 실시예에 따른 엑스선 영상 산란 보정 방법의 흐름도이다.
1 is a block diagram of an X-ray image scattering correction system according to an embodiment of the present invention.
2 is a diagram illustrating an example of generating a training image using Monte Carlo simulation according to an embodiment of the present invention.
3 is a diagram for describing a method of generating a target image for training a deep learning algorithm according to an embodiment of the present invention.
4 is a diagram illustrating a deep learning model used in a scattering correction unit according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a process of designing the deep learning model shown in FIG. 4 and performing training for each frequency component in the deep learning model.
6 is a graph showing the dilation rate of Ls-Net shown in FIG. 4.
7 is a graph showing the cumulative receiving area size of Ls-Net shown in FIG. 4.
8 is a diagram illustrating a simulation diagram of an X-ray image using a GATE code according to an embodiment of the present invention.
9 is a diagram illustrating an image for network training among 3D human body CT images used for X-ray image simulation according to an embodiment of the present invention.
10 is a diagram illustrating an image for a network test among 3D human body CT images used in an X-ray image simulation according to an embodiment of the present invention.
11 is a diagram illustrating an X-ray image simulation result according to an embodiment of the present invention.
12 is a graph showing SSIM and RMSE of a test image and loss according to network training according to an embodiment of the present invention.
13 is a diagram illustrating a result of predicting an X-ray scattering component according to an embodiment of the present invention.
14 is a diagram showing a scattering correction result by a Monte Carlo-based iterative scattering correction method according to the prior art.
15 is a graph showing RMSE according to the number of repetitions of a Monte Carlo-based iterative scattering correction method according to the prior art.
16 is a diagram showing a scattering correction result according to an embodiment of the present invention.
17 is a diagram illustrating a 3D reconstruction result and profile of a scattering corrected image by Ls-Net and Hs-Net according to an embodiment of the present invention.
18 is a diagram showing a 3D reconstruction result and profile of a scattering corrected image according to the prior art and an embodiment of the present invention.
19 is a flowchart of a method for correcting scattering of an X-ray image according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, preferred embodiments will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. However, in describing a preferred embodiment of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, the same reference numerals are used throughout the drawings for portions having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is said to be'connected' to another part, it is not only'directly connected', but also'indirectly connected' with another element in the middle. Include. In addition, "including" a certain component means that other components may be further included rather than excluding other components unless specifically stated to the contrary.

도 1은 본 발명의 일 실시예에 따른 엑스선 영상 산란 보정 시스템의 구성도이다.1 is a block diagram of an X-ray image scattering correction system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 엑스선 영상 산란 보정 시스템(200)은 훈련영상 생성부(210) 및 산란 보정부(220)를 포함하여 구성될 수 있다.Referring to FIG. 1, an X-ray image scattering correction system 200 according to an embodiment of the present invention may include a training image generation unit 210 and a scattering correction unit 220.

훈련영상 생성부(210)는 후술하는 산란 보정부(220)에서 사용되는 딥러닝 알고리즘을 훈련시키기 위한 시뮬레이션 영상 및 목표영상을 생성하기 위한 것이다.The training image generator 210 is for generating a simulation image and a target image for training a deep learning algorithm used in the scattering correction unit 220 to be described later.

산란 보정부(220)에서 딥러닝 알고리즘을 이용하여 엑스선 영상의 산란을 보정하기 위해서는 딥러닝 알고리즘을 훈련시키기 위해 동일 조건하에서 산란선이 존재하는 입력영상과 산란선이 존재하지 않는 목표영상이 필요하다. 또한, 딥러닝 알고리즘을 이용하여 엑스선 영상 산란 보정을 수행하기 위해서는 많은 양의 훈련영상이 필요하다. 그러나, 엑스선 영상의 특성상 산란선이 존재하지 않는 영상을 획득하는 것이 어렵고, 실제 장비로 많은 양의 훈련영상을 획득하는 것은 어렵다.In order for the scattering correction unit 220 to correct scattering of an X-ray image using a deep learning algorithm, an input image with scattering lines and a target image without scattering lines are required under the same conditions to train a deep learning algorithm. . In addition, a large amount of training images are required to perform X-ray image scattering correction using a deep learning algorithm. However, due to the nature of the X-ray image, it is difficult to acquire an image in which scattered rays do not exist, and it is difficult to acquire a large amount of training images with actual equipment.

따라서, 본 발명의 일 실시예에 따르면, 훈련영상 생성부(210)는 3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 생성할 수 있다. 여기서, 3차원 볼륨 영상은 예를 들어 MDCT(Multidetector computed tomography) 등의 장비에 의해 획득되거나, 3차원 설계 툴 등에 의해 생성된 볼륨 영상으로 실제 오브젝트의 밀도값을 가지는 3차원 볼륨 영상일 수 있다.Therefore, according to an embodiment of the present invention, the training image generation unit 210 may generate a simulation image with scattering lines and a target image without scattering lines through Monte Carlo simulation using a 3D volume image. have. Here, the 3D volume image may be, for example, a 3D volume image obtained by equipment such as MDCT (Multidetector computed tomography) or a volume image generated by a 3D design tool and having a density value of an actual object.

도 2는 본 발명의 일 실시예에 따라 몬테카를로 시뮬레이션을 이용하여 훈련영상을 생성하는 일 예를 도시하는 도면이다.2 is a diagram illustrating an example of generating a training image using Monte Carlo simulation according to an embodiment of the present invention.

훈련영상 생성부(210)는 3차원 볼륨 영상(21)을 이용하여 몬테카를로 시뮬레이션(22)을 통해 산란선이 존재하는 시뮬레이션 영상(23)을 획득하고, 시뮬레이션 영상(23)에서 주 엑스선 성분과 산란선 성분을 분리하여 주 엑스선 영상(24)와 산란선 영상(25)을 각각 획득할 수 있다. 여기서, 산란선이 존재하는 시뮬레이션 영상(23)이 딥러닝 알고리즘의 훈련을 위한 입력영상이고, 산란선이 존재하지 않는 주 엑스선 영상(24)이 목표영상이 된다.The training image generator 210 acquires a simulation image 23 in which the scattered rays exist through the Monte Carlo simulation 22 using the 3D volume image 21, and the main X-ray components and scattering from the simulation image 23 are obtained. By separating the ray component, the main X-ray image 24 and the scattering ray image 25 may be obtained, respectively. Here, the simulation image 23 in which the scattered ray exists is an input image for training the deep learning algorithm, and the main X-ray image 24 in which the scattering ray does not exist is the target image.

이 경우, 목표영상의 엑스선 선량을 시뮬레이션 영상의 엑스선 선량에 비해 기 설정된 비율(예를 들어, 대략 20% 정도)만큼 높게 설정하여 저 선량으로 인한 영상의 잡음에도 강인한 시스템을 구성할 수 있다.In this case, by setting the X-ray dose of the target image higher than the X-ray dose of the simulation image by a preset ratio (for example, about 20%), a system that is robust against image noise due to low dose can be configured.

도 3은 본 발명의 일 실시예에 따라 딥러닝 알고리즘의 훈련을 위한 목표영상을 생성하는 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of generating a target image for training a deep learning algorithm according to an embodiment of the present invention.

후술하는 바와 같이 산란 보정부(220)에서 Ds-DRCNN(Dual Scale Learing of Dilated Residual CNN)의 두 가지 네트워크를 훈련하기 위한 목표영상을 생성하기 위해, 훈련영상 생성부(210)는 산란선 성분만 존재하는 산란선 목표영상(31)에 가우시안 블러(Gaussian Blur)를 적용하여 저주파 성분을 포함하는 저주파 목표영상(32)을 획득하고, 산란선 목표영상(31)에서 저주파 목표영상(32)를 빼서 고주파 성분을 포함하는 고주파 목표영상(33)을 획득할 수 있다. 여기서, 저주파 성분은 넓은 영역의 주변 픽셀들에 의해 발생하는 산란 성분이고, 고주파 성분은 주로 넓지 않은 영역의 주변 픽셀들에 의해 발생하는 잡음과 산란 성분일 수 있다.As will be described later, in order to generate a target image for training two networks of Ds-DRCNN (Dual Scale Learing of Dilated Residual CNN) in the scattering correction unit 220, the training image generation unit 210 By applying a Gaussian Blur to the existing scattering target image 31, a low-frequency target image 32 including a low-frequency component is obtained, and the low-frequency target image 32 is subtracted from the scattering target image 31. A high-frequency target image 33 including a high-frequency component may be obtained. Here, the low-frequency component is a scattering component generated by surrounding pixels in a wide area, and the high-frequency component may be a noise and scattering component mainly generated by surrounding pixels in a non-wide area.

상술한 훈련영상 생성부(210)는 비교적 큰 용량의 3차원 볼륨 영상을 이용하여 많은 양의 시뮬레이션 영상을 획득하여야 하므로 시뮬레이션 속도가 중요하다. 일 실시예에 따르면, 훈련영상 생성부(210)는 시뮬레이션 툴 중에 GPU 연산을 지원하는 GATE를 사용할 수 있으나, 반드시 이로 제한되는 것은 아니다.The above-described training image generator 210 needs to acquire a large amount of simulation images using a 3D volume image having a relatively large capacity, so that the simulation speed is important. According to an embodiment, the training image generator 210 may use a GATE that supports GPU calculation among simulation tools, but is not limited thereto.

산란 보정부(220)는 훈련영상 생성부(210)로부터 전달받은 훈련영상, 즉 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여 엑스선 영상 획득 장치(100)에 의해 촬영된 엑스선 영상의 산란을 보정하기 위한 것이다.The scattering correction unit 220 is an X-ray image captured by the X-ray image acquisition apparatus 100 using a training image transmitted from the training image generation unit 210, that is, a deep learning algorithm trained using a simulation image and a target image. It is to correct the scattering of.

여기서, 엑스선 영상 획득 장치(100)는 2차원 DR 장비 또는 3차원 CT 장비 등과 같이 촬영 대상의 엑스선 영상을 획득하는 장비일 수 있으며, 이에 의해 획득된 엑스선 영상에는 산란선이 포함되어 있다.Here, the X-ray image acquisition apparatus 100 may be a device that acquires an X-ray image of a subject to be photographed, such as a 2D DR device or a 3D CT device, and the X-ray image obtained thereby includes scattered rays.

엑스선이 성분 및 두께가 동일한 물체를 투과하는 경우라도 산란이 발생된 위치 및 거리에 따라서 산란선의 분포가 상이하게 나타나므로, 일반적으로 영상의 잡음 제거에 주로 사용되는 딥러닝 알고리즘(예를 들어, CNN(Convolution Neural Network))을 그대로 적용하기 어렵다.Even when X-rays pass through an object with the same component and thickness, the distribution of the scattered rays appears different depending on the location and distance at which the scattering occurs.Thus, a deep learning algorithm mainly used for image noise removal (e.g., CNN (Convolution Neural Network)) is difficult to apply as it is.

따라서, 본 발명의 일 실시예에 따르면, 산란 보정부(220)는 엑스선 영상의 산란과 잡음을 고주파 성분 및 저주파 성분으로 분리하고, 각 성분에 대해 두 가지 네트워크를 독립적으로 구성하여 적용하는 Ds-DRCNN(Dual Scale Learing of Dilated Residual CNN)을 채용한다.Accordingly, according to an embodiment of the present invention, the scattering correction unit 220 separates scattering and noise of an X-ray image into a high-frequency component and a low-frequency component, and independently constructs and applies two networks for each component. It adopts DRCNN (Dual Scale Learing of Dilated Residual CNN).

도 4는 본 발명의 일 실시예에 따라 산란 보정부에서 사용되는 딥러닝 모델을 도시하는 도면이다.4 is a diagram illustrating a deep learning model used in a scattering correction unit according to an embodiment of the present invention.

도 4를 참조하면, Ds-DRCNN의 입력영상은 산란선을 포함하는 엑스선 영상(41)이고, 출력 영상은 산란선이 보정되어 산란선이 존재하지 않는 주 엑스선 영상(45)이다.Referring to FIG. 4, an input image of Ds-DRCNN is an X-ray image 41 including scattering rays, and an output image is a main X-ray image 45 in which scattering rays are corrected and no scattering rays exist.

또한, Ds-DRCNN은 산란 성분 중 고주파 성분의 보정을 위한 Hs-Net(Residual CNN for Estimation of High Frequency Scatter)(42)과 저주파 성분의 보정을 위한 Ls-Net(Dilated Residual CNN for Estimation of Low Frequency Scatter)(43)을 포함하고, 두 가지 네트워크의 출력을 합하면 산란선 성분을 추정한 산란선 추정 영상(44)이 되며, 입력된 엑스선 영상(41)에서 산란선 추정 영상(44)을 빼서 산란선이 존재하지 않는 보정된 엑스선 영상(45)을 획득할 수 있도록 구성된다.In addition, Ds-DRCNN is Hs-Net (Residual CNN for Estimation of High Frequency Scatter) (42) for correction of high-frequency components among scattering components and Ls-Net (Dilated Residual CNN for Estimation of Low Frequency) (Ls-Net) for correction of low-frequency components. Scatter)(43), and when the outputs of the two networks are summed, the scattering ray estimation image 44 is obtained by estimating the scattering ray component, and the scattering ray estimation image 44 is subtracted from the input X-ray image 41 to scatter. It is configured to obtain a corrected X-ray image 45 in which no ray exists.

여기서, Hs-Net(42)은 좁은 수용영역 내에서 효과적인 파라미터 훈련이 가능하도록 설계될 수 있으며, Ls-Net(43)은 파라미터의 개수를 크게 늘리지 않고 넓은 수용영역을 취할 수 있도록 설계될 수 있다. Here, the Hs-Net 42 may be designed to enable effective parameter training within a narrow receiving area, and the Ls-Net 43 may be designed to take a wide receiving area without significantly increasing the number of parameters. .

도 5는 도 4에 도시된 딥러닝 모델 설계 및 해당 딥러닝 모델에서 주파수 성분별 훈련을 수행하는 과정을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a process of designing the deep learning model shown in FIG. 4 and performing training for each frequency component in the deep learning model.

도 5를 참조하면, Hs-Net 및 Ls-Net은 각각 훈련영상 생성부(210)에 의해 획득한 산란선을 포함하는 시뮬레이션 영상(51)을 입력영상으로 하고, 산란선 고주파 성분을 포함하는 고주파 목표영상(53)과 산란선 저주파 성분을 포함하는 저주파 목표영상(55)을 각각 목표영상으로 하며, 각각의 네트워크에서 복수의 레이어들(52, 54)을 통해 해당 주파수 성분의 산란선 성분을 훈련시킬 수 있다.Referring to FIG. 5, Hs-Net and Ls-Net each have a simulation image 51 including a scattering line obtained by the training image generator 210 as an input image, and a high frequency including a scattering line high frequency component. The target image 53 and the low-frequency target image 55 including the scattering line low-frequency component are each target image, and the scattering line component of the corresponding frequency component is trained through a plurality of layers 52 and 54 in each network. I can make it.

또한, 각각의 네트워크에는 모두 잔여 학습(residual learning)을 적용하여 깊은 층의 CNN에서도 훈련이 효과적으로 수행되도록 할 수 있다.In addition, by applying residual learning to each network, it is possible to effectively perform training even in a deep CNN.

일반적인 딥러닝 모델은 다층의 레이어를 쌓을수록 0과 1의 가중치 곱이 0에 가까워지는 문제(gradient vanishing problem)가 심화되어 학습이 제대로 진행되기 어려운 문제가 있다. CNN의 잔여 학습은 이와 같은 문제를 해결하기 위한 것이다.In a general deep learning model, as multilayers are stacked, the gradient vanishing problem is intensified as the weight product of 0 and 1 approaches 0, making it difficult to properly learn. The residual learning of CNN is to solve this problem.

고주파 성분의 산란의 경우 국지적인 특징을 가지며, 잡음이 포함되어 있다. 따라서, 고주파 성분의 보정을 위한 Hs-Net(42)은 수용영역의 크기를 늘리는 것 보다 네트워크의 계층을 깊게 하여 다양한 필터들의 조합을 추출할 수 있도록 구성되는 것이 바람직하다.In the case of scattering of high-frequency components, it has local characteristics and contains noise. Therefore, it is preferable that the Hs-Net 42 for correcting the high-frequency component is configured to extract a combination of various filters by deepening the network layer rather than increasing the size of the receiving region.

본 발명의 일 실시예에서는, Hs-Net(42)은 잡음 제거 모델인 DnCNN을 수정하여 적용하도록 구성될 수 있다.In an embodiment of the present invention, the Hs-Net 42 may be configured to modify and apply the noise reduction model DnCNN.

DnCNN은 네트워크 아키텍처 설계를 위해 VGG 네트워크를 영상의 잡음 제거에 적합하게 수정하고 최근의 잡음 제거 방법에 사용되는 유효 패치 크기를 기반으로 네트워크의 깊이를 설정할 수 있다. 모델 학습의 경우 잔여 학습 전략을 채택하고 빠른 정규 훈련 및 향상된 잡음 제거 성능을 위해 배치 정규화를 적용할 수 있다. VGG 네트워크에서 필터 크기를 3

Figure 112018116310421-pat00001
3으로 설정하고 모든 풀링 레이어들(pooling layers)을 제거한다. 따라서, DnCNN의 수용영역 크기는 네트워크 깊이가 d일 때 (2d+1)
Figure 112018116310421-pat00002
(2d+1)이 된다.For network architecture design, DnCNN can modify the VGG network for image noise reduction and set the depth of the network based on the effective patch size used in recent noise reduction methods. For model training, we can adopt a residual learning strategy and apply batch regularization for fast regular training and improved noise reduction performance. Filter size 3 in VGG network
Figure 112018116310421-pat00001
Set to 3 and remove all pooling layers. Therefore, the receiving area size of DnCNN is (2d+1) when the network depth is d
Figure 112018116310421-pat00002
It becomes (2d+1).

네트워크 깊이 d를 가지는 DnCNN에는 하기와 같이 세 종류의 레이어가 있다. There are three types of layers in DnCNN with network depth d as follows.

(1) Conv+ReLU는 첫 번째 레이어에 적용되며, 64개의 feature map 생성을 위해 3

Figure 112018116310421-pat00003
3
Figure 112018116310421-pat00004
c 크기의 필터 64개가 사용된다. 활성화 함수 ReLU(Rectified Linear Units)를 적용하여 비선형성을 추가한다. 여기서, c는 영상의 채널을 의미하는데, 예를 들어 그레이 영상일 경우 c=1이고, 컬러 영상일 경우 c=3이다. (1) Conv+ReLU is applied to the first layer, and 3 to generate 64 feature maps.
Figure 112018116310421-pat00003
3
Figure 112018116310421-pat00004
64 filters of size c are used. Nonlinearity is added by applying the activation function ReLU (Rectified Linear Units). Here, c denotes a channel of an image. For example, c = 1 for a gray image and c = 3 for a color image.

(2) Conv+BN+ReLU는 2번째 레이어에서 (d-1) 번째 레이어에 적용되며, 3

Figure 112018116310421-pat00005
3
Figure 112018116310421-pat00006
64 크기의 필터 64개가 사용된다. 그리고 배치 정규화(Batch Normalization, BN)가 합성곱(Convolution)과 ReLU 사이에 추가된다. (2) Conv+BN+ReLU is applied from the second layer to the (d-1) layer, and 3
Figure 112018116310421-pat00005
3
Figure 112018116310421-pat00006
64 filters of size 64 are used. And batch normalization (BN) is added between convolution and ReLU.

(3) Conv는 마지막 레이어에 적용되며, 결과영상의 재구성을 위해 3

Figure 112018116310421-pat00007
3
Figure 112018116310421-pat00008
64 크기의 필터 c개가 사용된다. 또한 중간 레이어의 각 feature map이 입력 영상과 동일한 크기를 가지도록 각 레이어의 합성곱 전에 제로패딩(zero padding)을 적용한다.(3) Conv is applied to the last layer, and 3
Figure 112018116310421-pat00007
3
Figure 112018116310421-pat00008
C filters of size 64 are used. In addition, zero padding is applied before convolution of each layer so that each feature map of the intermediate layer has the same size as the input image.

상술한 바와 같이, 본 실시예에 따른 Hs-Net(42)은 DnCNN의 구조를 사용하여 네트워크를 구성하지만 네트워크 깊이는 후술하는 Ls-Net(43)과 동일하게 설정할 수 있다. 이를 통해, 두 가지 네트워크의 연산량을 동일하게 유지시켜 병렬로 배치된 네트워크들의 연산 효율을 높일 수 있다.As described above, the Hs-Net 42 according to the present embodiment configures a network using the structure of DnCNN, but the network depth may be set equal to that of the Ls-Net 43 to be described later. Through this, it is possible to increase the computational efficiency of networks arranged in parallel by maintaining the same computational amount of the two networks.

한편, 저주파 성분의 산란의 경우 촬영 대상에서 발생한 산란 성분이 영상의 모든 영역에서 검출될 수 있으므로, 저주파 성분의 보정을 위한 Ls-Net(43)은 네트워크의 수용영역 크기를 영상 전체 크기로 확장할 수 있어야 한다. On the other hand, in the case of scattering of low-frequency components, since the scattering components generated in the object to be photographed can be detected in all regions of the image, Ls-Net (43) for correction of low-frequency components expands the size of the receptive region of the network to the entire image You should be able to.

본 발명의 일 실시예에서는, Hs-Net(42)의 파라미터 및 네트워크 깊이를 늘리지 않고 연산량 증가 없이 수용영역의 크기를 확장할 수 있는 Ls-Net(43)을 제안한다.In one embodiment of the present invention, an Ls-Net 43 capable of extending the size of the receiving area without increasing the amount of computation without increasing the parameters and network depth of the Hs-Net 42 is proposed.

구체적으로, Ls-Net(43)은 상술한 Hs-Net(42)의 네트워크 구조에 수용영역의 크기 확장을 위해 dilated filter를 적용한 모델일 수 있다. Ls-Net(43)은 Hs-Net(42)과 동일한 구조를 가지며 필터 크기도 3

Figure 112018116310421-pat00009
3으로 동일하게 설정하지만, dilated filter를 적용함으로써 네트워크 깊이를 늘리지 않고 수용영역의 확장이 가능하다. 여기서, dilation rate는 수용영역의 크기가 입력영상의 크기에 대응될 수 있도록 입력영상의 크기에 따라 상이하게 설정할 수 있다. 입력영상의 전체 크기로 수용영역의 크기를 확장하기 위해 네트워크를 다음과 같이 설정할 수 있다.Specifically, the Ls-Net 43 may be a model in which a dilated filter is applied to the network structure of the Hs-Net 42 described above in order to expand the size of the receiving area. Ls-Net(43) has the same structure as Hs-Net(42) and has a filter size of 3
Figure 112018116310421-pat00009
The same setting as 3, but by applying a dilated filter, it is possible to expand the receiving area without increasing the network depth. Here, the dilation rate may be set differently according to the size of the input image so that the size of the receiving area may correspond to the size of the input image. In order to expand the size of the receiving area to the total size of the input image, the network can be set as follows.

네트워크의 필터 크기가 k

Figure 112018116310421-pat00010
k이고 dilation rate가 r일 때, 수용영역 크기는 {r*(k-1)+1}
Figure 112018116310421-pat00011
{r*(k-1)+1}이 된다. 깊이가 d인 Ls-Net(43)의 n번째 레이어의 dilation rate rn은 하기의 수학식 1과 같이 정의할 수 있다. 여기서, n번째 레이어까지의 누적 수용영역의 크기를 Sn
Figure 112018116310421-pat00012
Sn이라고 하면 여기서 Sn은 하기의 수학식 2와 같다. The filter size of the network is k
Figure 112018116310421-pat00010
When k and dilation rate r, the receiving area size is {r*(k-1)+1}
Figure 112018116310421-pat00011
It becomes {r*(k-1)+1}. The dilation rate r n of the n-th layer of the Ls-Net 43 having a depth of d may be defined as Equation 1 below. Here, the size of the accumulated receiving area up to the nth layer is S n
Figure 112018116310421-pat00012
Speaking of S n , where S n is the same as in Equation 2 below.

[수학식 1][Equation 1]

Figure 112018116310421-pat00013
Figure 112018116310421-pat00013

[수학식 2][Equation 2]

Figure 112018116310421-pat00014
Figure 112018116310421-pat00014

Dilation rate를 수학식 1과 같이 정의하는 이유는 dilation rate를 네트워크의 깊이에 따른 대칭 구조를 가지도록 하여 dilated filter 적용시 나타나는 그리딩 아티팩트(gridding artifact)를 제거하기 위함이다. 대칭 구조를 위해 네트워크 깊이 d는 2의 배수로 설정할 수 있다.The reason for defining the dilation rate as in Equation 1 is to remove gridding artifacts that appear when a dilated filter is applied by making the dilation rate have a symmetrical structure according to the depth of the network. For a symmetrical structure, the network depth d can be set to a multiple of 2.

도 6은 도 4에 도시된 Ls-Net의 dilation rate를 나타내는 그래프이고, 도 7은 도 4에 도시된 Ls-Net의 누적 수용영역 크기를 나타내는 그래프이다.6 is a graph showing the dilation rate of Ls-Net shown in FIG. 4, and FIG. 7 is a graph showing the cumulative receiving area size of Ls-Net shown in FIG. 4.

상술한 바와 같이, 본 발명의 일 실시예에 따른 Ls-Net(43)은 네트워크 깊이를 크게 늘리지 않고도 수용영역의 크기를 늘릴 수 있기 때문에 확장성이 뛰어나다. 예를 들어, 네트워크 깊이가 8일 경우 수용영역의 크기는 61

Figure 112018116310421-pat00015
61이지만, 네트워크 깊이를 16으로 늘릴 경우 수용영역의 크기는 1021
Figure 112018116310421-pat00016
1021로 크게 확장될 수 있다.As described above, the Ls-Net 43 according to an embodiment of the present invention has excellent scalability because it can increase the size of the receiving area without greatly increasing the network depth. For example, if the network depth is 8, the size of the receiving area is 61
Figure 112018116310421-pat00015
61, but if the network depth is increased to 16, the size of the receiving area is 1021
Figure 112018116310421-pat00016
It can be greatly extended to 1021.

상술한 Ds-DRCNN의 네트워크 깊이는 입력영상의 크기에 따라 Ls-Net(43)의 수용영역의 크기를 고려하여 설정할 수 있다. 후술하는 실험에서 사용된 입력영상의 크기가 256

Figure 112018116310421-pat00017
128이므로, 이에 가까운 수용영역을 가질 수 있도록 네트워크 깊이를 12로 설정할 수 있으며, 이 경우 Ds-DRCNN는 하기의 표 1과 같은 세부 구조를 가질 수 있다.The network depth of the Ds-DRCNN described above may be set in consideration of the size of the receiving area of the Ls-Net 43 according to the size of the input image. The size of the input image used in the experiment described below is 256
Figure 112018116310421-pat00017
Since it is 128, the network depth can be set to 12 to have an accommodation area close to this, and in this case, Ds-DRCNN can have a detailed structure as shown in Table 1 below.

[표 1][Table 1]

Figure 112018116310421-pat00018
Figure 112018116310421-pat00018

상술한 Ds-DRCNN의 입력영상 y는 주 엑스선 영상 p에 산란 영상 s가 더해진 영상으로 y=p+s이다. 여기서, 입력영상 y 는 최대값을 1로 정규화한 영상일 수 있다. 또한, 잔여 학습 훈련을 위한 잔여 맵핑

Figure 112018116310421-pat00019
를 채택하여 산란이 보정된 주 엑스선 예측영상 p'는
Figure 112018116310421-pat00020
를 통해 얻을 수 있다. 네트워크 파라미터
Figure 112018116310421-pat00021
는 하기의 수학식 3에 나타낸 손실함수가 최소화되도록 훈련시킬 수 있다.The input image y of the Ds-DRCNN described above is an image obtained by adding the scattering image s to the main X-ray image p, and is y=p+s. Here, the input image y may be an image obtained by normalizing the maximum value to 1. Also, residual mapping for residual learning training
Figure 112018116310421-pat00019
The main X-ray prediction image p'for which scattering is corrected by adopting
Figure 112018116310421-pat00020
You can get it through. Network parameters
Figure 112018116310421-pat00021
Can be trained to minimize the loss function shown in Equation 3 below.

[수학식 3][Equation 3]

Figure 112018116310421-pat00022
Figure 112018116310421-pat00022

여기서,

Figure 112018116310421-pat00023
Figure 112018116310421-pat00024
은 각각 Hs-Net 및 Ls-Net의 손실함수로 하기의 수학식 4 및 수학식 5와 같고,
Figure 112018116310421-pat00025
는 각 손실함수의 중요도를 설정하는 가중치이다.here,
Figure 112018116310421-pat00023
And
Figure 112018116310421-pat00024
Is the same as Equation 4 and Equation 5 below as loss functions of Hs-Net and Ls-Net, respectively,
Figure 112018116310421-pat00025
Is a weight that sets the importance of each loss function.

[수학식 4][Equation 4]

Figure 112018116310421-pat00026
Figure 112018116310421-pat00026

[수학식 5][Equation 5]

Figure 112018116310421-pat00027
Figure 112018116310421-pat00027

저주파 성분 산란 목표영상 li는 산란 영상 si에 가우시안 필터 G를 취한 영상으로 li=G(si)이고, 고주파 성분 산란 목표영상 hi는 산란 영상 si에서 저주파 산란 영상 li를 뺀 영상으로 hi=si-li이다. 또한, 입력 영상이 yi일 때,

Figure 112018116310421-pat00028
는 Hs-Net의 파라미터
Figure 112018116310421-pat00029
를 통해 예측된 고주파 산란 영상
Figure 112018116310421-pat00030
이고,
Figure 112018116310421-pat00031
은 Ls-Net의 파라미터
Figure 112018116310421-pat00032
을 통해 예측된 저주파 산란 영상
Figure 112018116310421-pat00033
이다. 여기서 훈련 집합
Figure 112018116310421-pat00034
은 산란 포함 입력 영상 yi와 산란 영상 si로 몬테카를로 시뮬레이션을 통해 획득한 N개의 영상 쌍으로 이루어질 수 있다.The low-frequency scattering target image l i is the scattering image s i with a Gaussian filter G, l i =G(s i ), and the high-frequency scattering target image h i is the scattering image s i minus the low-frequency scattering image l i The image is h i = s i -l i . Also, when the input image is y i ,
Figure 112018116310421-pat00028
Is the parameter of Hs-Net
Figure 112018116310421-pat00029
High-frequency scattered image predicted through
Figure 112018116310421-pat00030
ego,
Figure 112018116310421-pat00031
Is the parameter of Ls-Net
Figure 112018116310421-pat00032
Low-frequency scattering image predicted through
Figure 112018116310421-pat00033
to be. Training set here
Figure 112018116310421-pat00034
May be composed of N image pairs obtained through Monte Carlo simulation with the scattering input image y i and the scattering image s i .

훈련 시 손실함수 최소화는 Adam optimizer를 사용하고, 훈련 완료 후 입력 영상 yi의 최종 산란 영상은

Figure 112018116310421-pat00035
를 통해 산출할 수 있다.The Adam optimizer is used to minimize the loss function during training, and the final scattering image of the input image y i after training is completed is
Figure 112018116310421-pat00035
It can be calculated through

다음으로, 도 8 내지 도 18을 참조하여, 상술한 엑스선 영상 산란 보정 시스템의 유효성 검증을 위한 실험 및 결과에 대해 구체적으로 설명하기로 한다.Next, experiments and results for validating the above-described X-ray image scattering correction system will be described in detail with reference to FIGS. 8 to 18.

상술한 엑스선 영상 산란 보정 시스템의 딥러닝 네트워크 모델 훈련 및 검증을 위해 몬테카를로 시뮬레이션을 통해 훈련 영상을 생성하였다. 엑스선 영상 획득 장치의 영상 해상도를 낮게 설정하여 빠른 속도로 영상을 시뮬레이션 할 수 있도록 함으로써 유효 시간 내에 시뮬레이션 영상을 최대한 많이 획득할 수 있도록 하였으며, 엑스선 획득 장치의 크기는 실제 시스템의 크기만큼 크게 설정하여 본 발명의 유효성 확인할 수 있도록 하였다. 몬테카를로 시뮬레이션을 위한 엑스선 영상 획득 장치의 세부 사양은 하기의 표 2와 같다.To train and verify the deep learning network model of the above-described X-ray image scattering correction system, a training image was generated through Monte Carlo simulation. By setting the image resolution of the X-ray image acquisition device to a low setting so that the image can be simulated at a high speed, it is possible to acquire as many simulation images as possible within the effective time. The size of the X-ray acquisition device is set as large as the actual system size. It was made to be able to check the effectiveness of the invention. Detailed specifications of the X-ray image acquisition device for Monte Carlo simulation are shown in Table 2 below.

[표 2][Table 2]

Figure 112018116310421-pat00036
Figure 112018116310421-pat00036

표 2에 나타낸 엑스선 영상 획득 장치를 GATE 코드로 구현하여 엑스선 영상을 시뮬레이션 하였으며, 도 8은 본 발명의 일 실시예에 따른 GATE 코드를 이용한 엑스선 영상 시뮬레이션도를 도시하는 도면이다.The X-ray image acquisition apparatus shown in Table 2 was implemented with a GATE code to simulate an X-ray image, and FIG. 8 is a diagram illustrating an X-ray image simulation diagram using a GATE code according to an embodiment of the present invention.

엑스선 영상의 시뮬레이션 대상은 복잡한 인체 구조의 해부학적 다양성에 대한 유효성 확인을 위해 CBCT에 비해 산란이 거의 발생하지 않는 의료용 MDCT 시스템에서 실제 환자를 촬영한 3차원 CT영상을 활용하였다. 사용한 3차원 인체 영상은 NBIA(National Biomedical Imaging Archive)에서 제공하는 실제 환자의 흉부를 촬영한 CT 영상이며, 총 10명의 환자를 촬영한 10개의 3차원 볼륨 영상이다. 이 중, 도 9에 도시된 9개의 볼륨의 시뮬레이션 영상을 네트워크 훈련을 위해 사용하였고, 도 10에 도시된 나머지 1개 볼륨의 시뮬레이션 영상을 네트워크 테스트 및 검증에 사용하였다. The simulation target of the X-ray image used a 3D CT image of a real patient in a medical MDCT system where scattering rarely occurs compared to CBCT in order to verify the effectiveness of the anatomical diversity of complex human structures. The 3D human body image used is a CT image of an actual patient's chest provided by the National Biomedical Imaging Archive (NBIA), and 10 3D volume images of a total of 10 patients. Among them, the simulation images of nine volumes shown in FIG. 9 were used for network training, and the simulation images of the remaining one volume shown in FIG. 10 were used for network testing and verification.

10개의 볼륨 영상에 대해 각각 CBCT 시스템에서 엑스선 발생 장치 및 검출기를 포함하는 겐트리 구조를 360도로 회전시키며 2차원 투영 영상을 각도 별로 1쌍(산란선 유무)씩 시뮬레이션 하였으며, 시뮬레이션 된 영상에 좌우 및 상하 반전 영상 그리고 180도 회전 영상을 더해 영상의 수를 4배로 확장 하였다. 이와 같이 획득한 시뮬레이션 영상의 수는 총 14,400쌍(=28,800[장]=10[볼륨]*360[1장/도*360도]*2[산란선유무] *4[원본+좌우반전+상하반전+180도회전])이다.For each of the 10 volume images, the gantry structure including the X-ray generator and the detector was rotated 360 degrees in the CBCT system, and the two-dimensional projection images were simulated for each angle (with or without scattering rays). The number of images was expanded by 4 times by adding the vertically inverted image and the 180 degree rotation image. The number of simulated images thus acquired is 14,400 pairs (=28,800[sheets]=10[volume]*360[1sheet/degree*360degrees]*2[with or without scattering lines] *4[original + left and right flip + top and bottom Reverse + 180 degrees rotation]).

이때, 산란이 포함된 영상인 시뮬레이션 영상은 각 픽셀마다 평균적으로 5,000개의 광자가 획득될 수 있도록 투영 영상 한 장당 163,840,000개의 광자를 시뮬레이션 하였으며, 이에 대응하는 네트워크의 목표영상은 이보다 20% 많은 각 픽셀마다 6,000개의 광자가 획득될 수 있도록 투영 영상 한 장당 196,608,000개의 광자를 시뮬레이션 하였다. 이와 같이 시뮬레이션 영상 생성시 목표영상의 엑스선 선량을 시뮬레이션 영상의 선량보다 더 높게 설정한 이유는 저 선량으로 인한 영상의 잡음에도 강인한 시스템을 구축하기 위함이다. At this time, the simulation image, which is an image including scattering, simulates 163,840,000 photons per projection image so that an average of 5,000 photons can be obtained for each pixel, and the target image of the corresponding network is for each pixel 20% more than this. 196,608,000 photons per projection image were simulated so that 6,000 photons could be acquired. In this way, the reason why the X-ray dose of the target image is set higher than that of the simulation image when generating the simulation image is to build a system that is robust against image noise due to low dose.

도 11은 본 발명의 일 실시예에 따른 엑스선 영상 시뮬레이션 결과를 도시하는 도면으로, 몬테카를로 시뮬레이션 결과 중 2쌍을 나타낸 것이다. 도 11과 같이 각 시뮬레이션 영상은 주 엑스선 성분만 존재하는 주 엑스선 영상과 산란성 성분만 존재하는 산란선 영상으로 분리될 수 있다.11 is a diagram illustrating an X-ray image simulation result according to an embodiment of the present invention, and shows two pairs of Monte Carlo simulation results. As shown in FIG. 11, each simulation image may be divided into a main X-ray image including only a main X-ray component and a scattering image including only a scattering component.

본 실험에서, 딥러닝 네트워크는 텐서플로우(TensorFlow)를 통해 구현 및 훈련하였으며, 훈련 시 적용한 파라미터들은 후술하는 바와 같다. 우선, 네트워크의 학습률은 초기에 0.001로 설정하고, 이 값을 학습이 진행될수록 감소시켜 100세대 이후에는 0.000001로 고정되도록 하였다. 합성곱 커널의 가중치들은 공지기술을 사용하여 초기화하였다. 또한, 배치 크기는 5로 하고, 각 세대마다 반복 횟수를 2592회로 설정하여 한 세대당 시뮬레이션 영상 12960쌍이 모두 훈련되도록 하였다. 또한, 네트워크의 학습은 총 500세대까지 진행하였으며 각 세대마다 영상의 훈련 순서는 무작위로 설정하였다. In this experiment, the deep learning network was implemented and trained through TensorFlow, and parameters applied during training are as described later. First, the learning rate of the network was initially set to 0.001, and this value was decreased as the learning progressed so that it was fixed at 0.000001 after the 100th generation. The weights of the convolution kernel were initialized using a known technique. In addition, the batch size was set to 5, and the number of repetitions for each generation was set to 2592, so that all 12960 pairs of simulation images per generation were trained. In addition, network training was performed up to a total of 500 generations, and the training order of images was set randomly for each generation.

도 12는 본 발명의 일 실시예에 따른 네트워크 훈련에 따른 손실 및 테스트 영상의 구조적 유사 지수(Structural Similarity Index Measure, SSIM) 및 평균 제곱근 오차(Root Mean Square Error, RMSE)를 나타내는 그래프이다.12 is a graph showing a Structural Similarity Index Measure (SSIM) and Root Mean Square Error (RMSE) of a test image and loss according to network training according to an embodiment of the present invention.

도 12를 참조하면, Hs-Net의 손실 값인

Figure 112018116310421-pat00037
의 감소 추세에 따라 SSIM이 높아지며, Ls-Net의 손실 값인
Figure 112018116310421-pat00038
의 감소 추세에 따라 RMSE가 낮아짐을 확인할 수 있다. 이는 Hs-Net이 고주파 성분의 보정을 통해 구조적인 유사도를 증가 시키고 Ls-Net이 저주파 성분의 보정을 통해 영상의 전체적인 유사도를 증가시키고 있음을 보여준다. 12, the loss value of Hs-Net
Figure 112018116310421-pat00037
SSIM increases according to the decreasing trend of Ls-Net,
Figure 112018116310421-pat00038
It can be seen that RMSE decreases according to the decreasing trend of. This shows that Hs-Net increases structural similarity through correction of high-frequency components and Ls-Net increases overall similarity of image through correction of low-frequency components.

도 13은 본 발명의 일 실시예에 따른 엑스선 산란성분 예측 결과를 도시하는 도면이다.13 is a diagram illustrating a result of predicting an X-ray scattering component according to an embodiment of the present invention.

도 13을 참조하면, 입력영상에 존재하는 산란 성분을 본 발명에서 제안한 네트워크가 효과적으로 예측함을 알 수 있다.Referring to FIG. 13, it can be seen that the network proposed in the present invention effectively predicts the scattering component present in the input image.

엑스선 영상은 주로 진단용으로 많이 사용되므로, 영상 개선 후 목표영상과 결과영상 간의 유사도가 높아진다고 하더라도 진단에 꼭 필요한 정보에 손실이 발생한다면 큰 문제가 될 수 있다. 다시 말해, 엑스선 영상의 경우 영상 개선 알고리즘의 결과에 대한 단순한 유사도 비교를 통해 성능을 검증하기 어렵다.Since X-ray images are mainly used for diagnosis, even if the similarity between the target image and the result image increases after image improvement, it may be a big problem if information necessary for diagnosis is lost. In other words, in the case of an X-ray image, it is difficult to verify the performance through a simple similarity comparison with the result of the image enhancement algorithm.

특히, 본 발명에서 제안한 산란 보정 방법의 경우 단순히 영상의 잡음만 제거하는 것이 아니라 잡음 성분을 포함한 영상 전체의 산란 성분을 보정하기 위한 것이므로, 산란 보정 전, 후 영상의 유사도 비교만으로는 성능을 평가하기가 어렵다. In particular, in the case of the scattering correction method proposed in the present invention, since the scattering component of the entire image including the noise component is not simply removed, it is difficult to evaluate the performance by comparing the similarity of the image before and after scattering correction. it's difficult.

따라서, 본 실험에서는 잡음에 민감한 3차원 CBCT 시스템을 실험 대상으로 채택하여 산란 보정 전, 후의 2차원 투영 영상의 성능 평가와 함께 보정된 2차원 영상을 재구성한 3차원 재구성 영상에 대해서도 성능을 평가하였다.Therefore, in this experiment, we adopted a noise-sensitive 3D CBCT system as an experiment object and evaluated the performance of the 2D projection image before and after scattering correction, as well as the 3D reconstructed image reconstructed from the corrected 2D image. .

본 발명에서 제안한 네트워크의 산란 보정 결과의 정량적 품질 평가를 위해 사용한 평가 지표는 평균 제곱근 오차(Root Mean Square Error, RMSE), 최대 신호 대 잡음비(Peak Signal-to-noise ratio, PSNR), 그리고 구조적 유사 지수(Structural Similarity Index Measure, SSIM)등 세 가지이며 이를 사용하여 2차원 목표 영상과 예측된 2차원 영상의 유사도, 3차원 목표 영상과 예측된 영상의 3차원 재구성 영상의 유사도에 대해 각각 평가하였다.The evaluation index used for the quantitative quality evaluation of the scattering correction result of the network proposed in the present invention is Root Mean Square Error (RMSE), Peak Signal-to-noise ratio (PSNR), and structural similarity. Three indexes (Structural Similarity Index Measure, SSIM) were used to evaluate the similarity between the 2D target image and the predicted 2D image, and the similarity between the 3D target image and the 3D reconstructed image of the predicted image, respectively.

객관적인 성능 평가를 위해 종래의 산란 보정 방법 중에서 가장 합리적이고 정확한 방식으로 여겨지는 몬테카를로 기반 반복적 산란 보정 방법을 이용한 산란 보정 결과와 본 발명의 실시예에 따른 산란 보정 결과를 비교 평가하였다.For objective performance evaluation, the scattering correction result using the Monte Carlo-based iterative scattering correction method, which is considered to be the most rational and accurate method among the conventional scattering correction methods, and the scattering correction result according to an embodiment of the present invention were compared and evaluated.

평가에 사용된 몬테카를로 기반 반복적 산란 보정 방법의 세부 진행 단계는 하기와 같다.Detailed steps of the Monte Carlo-based iterative scattering correction method used in the evaluation are as follows.

0단계: CBCT 시스템에서 획득된 원본 투영 영상을 산란 보정 없이 3차원으로 재구성Step 0: Reconstruct the original projection image acquired in the CBCT system into 3D without scattering correction

1단계: 재구성된 3차원 볼륨 영상을 복셀 별 밀도 값으로 변환Step 1: Convert the reconstructed 3D volume image to voxel-specific density values

2단계: 몬테카를로 시뮬레이션을 통해 1단계에서 변환된 밀도 팬텀에 대해 주 엑스선 영상과 산란 영상을 각 투영 각도 별로 생성Step 2: Generate main X-ray images and scattering images for each projection angle for the density phantom transformed in step 1 through Monte Carlo simulation

3단계: 2단계에서 생성된 산란 성분으로 원본 투영영상의 산란 보정Step 3: Scatter correction of the original projection image with the scattering component generated in step 2

4단계: 3단계의 산란이 보정된 투영영상을 3차원으로 재구성Step 4: Reconstruct the projected image with 3 levels of scattering corrected into 3D

5단계: 수렴될 때까지 1단계부터 반복Step 5: Repeat from step 1 until convergence

본 발명에서 제안한 산란 보정 방법과의 비교를 위해, 산란이 존재하는 테스트 영상을 몬테카를로 기반 반복적 산란 보정 방법의 0단계의 원본 투영 영상으로 사용하였으며, 2단계의 몬테카를로 시뮬레이션시 영상 크기를 입력 영상과 동일한 256

Figure 112018116310421-pat00039
128로 설정하였고, 각 픽셀마다 평균적으로 1,000개의 광자가 획득될 수 있도록 투영 영상 한 장당 32,768,000개의 광자를 시뮬레이션 하였다. 5단계의 수렴 조건은 이전 반복시의 3차원 재구성 영상과 현재 반복 단계의 3차원 재구성 영상의 가운데 단면 영상간의 RMSE값을 이용하였으며, 이 값이 0.001(cm-1) 이하일 경우 수렴된 것으로 판단하였다.For comparison with the scattering correction method proposed in the present invention, the test image with scattering was used as the original projection image of step 0 of the Monte Carlo-based iterative scattering correction method, and the image size was the same as the input image during the Monte Carlo simulation of the second step. 256
Figure 112018116310421-pat00039
It was set to 128, and 32,768,000 photons per projection image were simulated so that an average of 1,000 photons for each pixel could be obtained. The convergence condition of step 5 used the RMSE value between the 3D reconstructed image at the time of the previous iteration and the middle section image of the 3D reconstructed image at the current iteration step, and if this value is less than 0.001(cm-1), it was determined that convergence was achieved. .

본 발명에서 제안한 방법의 평가에 사용된 동일한 입력영상을 이용하여 몬테카를로 기반 반복적 산란 보정 방법으로 산란을 보정한 결과 반복횟수 5회에서 수렴되었으며 결과는 도 14와 같다. 여기서, 알고리즘의 수렴 조건인 반복횟수 별 RMSE 값은 도 15와 같다.As a result of correcting the scattering by the Monte Carlo-based iterative scattering correction method using the same input image used in the evaluation of the method proposed in the present invention, the result is converged at 5 repetitions, and the result is shown in FIG. 14. Here, the RMSE value for each repetition count, which is a convergence condition of the algorithm, is shown in FIG. 15.

도 16은 본 발명의 일 실시예에 따른 산란 보정 결과를 도시하는 도면이다.16 is a diagram showing a scattering correction result according to an embodiment of the present invention.

도 16을 참조하면, 본 발명에서 제안한 방법으로 산란 보정을 진행한 결과 입력영상에 존재하는 산란 성분이 효과적으로 제거됨을 확인할 수 있다.Referring to FIG. 16, it can be seen that the scattering component present in the input image is effectively removed as a result of performing scattering correction by the method proposed in the present invention.

본 발명 및 종래 기술에 의한 산란 보정 결과의 정량적 평가 결과는 표 3과 같으며, 본 발명에서 제안된 방법으로 산란을 보정하면 목표영상과의 유사도가 측정 항목 모두에서 크게 개선됨을 알 수 있다. 특히, SSIM 항목이 0.77에서 0.992로 향상되어 산란 보정 영상이 목표영상과 아주 유사하게 보정되었음을 알 수 있다. The quantitative evaluation results of the scattering correction results according to the present invention and the prior art are shown in Table 3, and it can be seen that if the scattering is corrected by the method proposed in the present invention, the similarity to the target image is greatly improved in all measurement items. In particular, the SSIM item was improved from 0.77 to 0.992, indicating that the scattering corrected image was corrected very similar to the target image.

[표 3][Table 3]

Figure 112018116310421-pat00040
Figure 112018116310421-pat00040

상술한 결과는 산란 보정 전, 후의 2차원 영상간의 유사도를 비교한 것으로 측정 항목 모두에서 뛰어난 개선이 있음을 확인하였으나, 상술한 바와 같이 단순히 2차원 투영 영상간의 유사도 비교만으로는 산란 제거 결과에 대한 유용성을 검증하기 어렵다. 이는 산란 보정 후 영상의 3차원 재구성 영상에서 목표영상에 존재하지 않는 아티팩트가 추가로 발생하거나 목표영상에 존재했던 정보가 사라진다면 산란 보정 방법의 유용성이 떨어지기 때문이다. The above result was a comparison of the similarity between the 2D images before and after scattering correction, and it was confirmed that there was excellent improvement in all of the measurement items, but as described above, simply comparing the similarity between the 2D projection images was useful for the scatter removal result. It is difficult to verify. This is because the usefulness of the scattering correction method is deteriorated if artifacts that do not exist in the target image are additionally generated in the 3D reconstructed image of the image after scattering correction or information that existed in the target image disappears.

따라서, 본 실험에서는 산란 보정 영상에 대한 3차원 재구성 영상에 대해서도 평가를 진행하였다.Therefore, in this experiment, evaluation was also performed on the 3D reconstructed image of the scattering corrected image.

도 17은 본 발명의 일 실시예에 따라 Ls-Net 및 Hs-Net에 의한 산란 보정 영상의 3D 재구성 결과 및 프로파일을 도시하는 도면이다.17 is a diagram illustrating a 3D reconstruction result and profile of a scattering corrected image by Ls-Net and Hs-Net according to an embodiment of the present invention.

도 17을 참조하면, Ls-Net만을 이용한 산란 보정 결과 저주파 성분의 산란 성분이 보정되면서 영상의 전체적인 대조도가 개선되었으며, Hs-Net만을 이용한 산란 보정 결과 고주파 성분의 산란 성분 및 잡음이 보정됨을 확인할 수 있다. 최종적으로 Ls-Net과 Hs-Net을 통합한 Ds-DRCNN의 결과에서 산란이 보정되어 영상의 대조도 및 잡음이 크게 개선되었음을 확인할 수 있다.Referring to FIG. 17, as a result of scattering correction using only Ls-Net, as a result of correcting the scattering component of the low-frequency component, the overall contrast of the image was improved, and as a result of scattering correction using only Hs-Net, it was confirmed that the scattering component and noise of the high-frequency component were corrected. I can. Finally, from the result of Ds-DRCNN integrating Ls-Net and Hs-Net, it can be seen that the scattering was corrected and the contrast and noise of the image were greatly improved.

도 18은 종래 기술 및 본 발명의 일 실시예에 의한 산란 보정 영상의 3D 재구성 결과 및 프로파일을 도시하는 도면이다.18 is a diagram showing a 3D reconstruction result and profile of a scattering corrected image according to the prior art and an embodiment of the present invention.

도 18을 참조하면, 본 발명에서 제안한 방법으로 입력영상의 산란 보정 결과 목표영상과 유사한 프로파일을 보여 산란 보정이 정상적으로 이루어졌음을 확인할 수 있다. 또한, 본 발명에서 제안한 방법은 기존의 몬테카를로 기반 반복적 산란 보정 방법에 비해 목표영상에 더 가까운 결과를 보이는 것을 확인할 수 있다.Referring to FIG. 18, as a result of scattering correction of an input image by the method proposed in the present invention, a profile similar to that of the target image is displayed, and it can be confirmed that the scattering correction is normally performed. In addition, it can be seen that the method proposed in the present invention shows a result closer to the target image than the conventional Monte Carlo-based iterative scatter correction method.

본 발명에서 제안한 산란 보정 방법의 3차원 재구성 결과 영상에 대한 정량적 평가 결과는 표 4와 같으며, 본 발명에서 제안한 방법으로 산란을 보정한 후 3차원 재구성을 수행한 결과 목표영상과의 유사도가 측정 항목 모두에서 개선되었음을 알 수 있다. 특히, 본 발명에서 제안한 방법의 산란 보정 결과 목표영상과의 SSIM이 0.823에서 0.96으로 크게 개선되었고 기존의 몬테카를로 기반 반복적 산란 보정 방법에 비해 측정 항목 모두에서 더 뛰어난 성능을 나타냄을 알 수 있다.The quantitative evaluation results for the 3D reconstruction result image of the scattering correction method proposed in the present invention are shown in Table 4, and the similarity to the target image is measured as a result of performing 3D reconstruction after scattering by the method proposed in the present invention. You can see that all of the items have been improved. In particular, as a result of the scattering correction of the method proposed in the present invention, the SSIM with the target image was greatly improved from 0.823 to 0.96, and it can be seen that it shows superior performance in all of the measurement items compared to the existing Monte Carlo-based iterative scattering correction method.

[표 4][Table 4]

Figure 112018116310421-pat00041
Figure 112018116310421-pat00041

도 19는 본 발명의 다른 실시예에 따른 엑스선 영상 산란 보정 방법의 흐름도이다.19 is a flowchart of a method for correcting scattering of an X-ray image according to another embodiment of the present invention.

도 19를 참조하면, 본 발명의 다른 실시예에 따른 엑스선 영상 산란 보정 방법은, 몬테카를로 시뮬레이션을 이용한 훈련영상 생성 단계(S1910) 및 딥러닝 기법을 이용한 엑스선 영상의 산란 보정 단계(S1920)를 포함할 수 있다.Referring to FIG. 19, an X-ray image scattering correction method according to another embodiment of the present invention includes a training image generation step (S1910) using a Monte Carlo simulation and a scatter correction step (S1920) of an X-ray image using a deep learning technique. I can.

몬테카를로 시뮬레이션을 이용한 훈련영상 생성 단계(S1910)에서는, 3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 포함하는 훈련영상을 생성할 수 있다.In the step of generating a training image using Monte Carlo simulation (S1910), a training image including a simulation image with a scattering line and a target image without a scattering line may be generated through Monte Carlo simulation using a 3D volume image. .

이후, 딥러닝 기법을 이용한 엑스선 영상의 산란 보정 단계(S1920)에서는, 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여, 입력된 엑스선 영상의 산란을 보정할 수 있다.Thereafter, in the scattering correction step (S1920) of the X-ray image using the deep learning technique, the scattering of the input X-ray image may be corrected using a deep learning algorithm trained using the simulation image and the target image.

여기서, 딥러닝 모델은, 엑스선 영상의 산란과 잡음을 고주파 성분 및 저주파 성분으로 분리하고, 각 성분에 대해 두 가지 네트워크를 독립적으로 구성하여 적용하는 Ds-DRCNN(Dual Scale Learing of Dilated Residual CNN)을 채용할 수 있다.Here, the deep learning model uses Ds-DRCNN (Dual Scale Learing of Dilated Residual CNN), which separates scattering and noise of X-ray images into high-frequency components and low-frequency components, and independently constructs and applies two networks for each component. Can be adopted.

Ds-DRCNN은 산란 성분 중 고주파 성분의 보정을 위한 Hs-Net(Residual CNN for Estimation of High Frequency Scatter)과 저주파 성분의 보정을 위한 Ls-Net(Dilated Residual CNN for Estimation of Low Frequency Scatter)을 포함하며, 두 가지 네트워크의 출력을 합하여 산란선 성분을 추정한 산란선 추정 영상을 획득하고, 입력된 엑스선 영상에서 산란선 추정 영상을 빼서 산란선이 존재하지 않는 산란 보정된 엑스선 영상을 획득할 수 있다.Ds-DRCNN includes Hs-Net (Residual CNN for Estimation of High Frequency Scatter) for correction of high frequency components and Ls-Net (Dilated Residual CNN for Estimation of Low Frequency Scatter) for correction of low frequency components. , A scattering-ray estimation image obtained by estimating a scattering ray component is obtained by summing the outputs of the two networks, and a scattering-corrected X-ray image in which the scattering ray does not exist may be obtained by subtracting the scattering ray estimation image from the input X-ray image.

상술한 엑스선 영상 산란 보정 방법의 각 단계는 GPU 연산을 지원하는 시뮬레이션 툴과 딥러닝 엔진에 의해 수행될 수 있으며, 이에 대한 구체적인 내용은 도 1 내지 도 7을 참조하여 상술한 바와 동일하므로 이에 대한 중복적인 설명은 생략한다.Each step of the above-described X-ray image scattering correction method may be performed by a simulation tool and a deep learning engine supporting GPU calculation, and specific details thereof are the same as described above with reference to FIGS. 1 to 7 A typical explanation is omitted.

또한, 상술한 실시예에서는 본 발명의 유효성 확인을 위해 산란이 많이 발생하고 산란에 민감한 CBCT 시스템을 채택한 것으로 설명하였으나, 본 발명이 반드시 반드시 이로 제한되는 것은 아니다. 예를 들어, 본 발명에 따른 산란 보정 방법은 CBCT 시스템뿐만 아니라 2차원 DR 장비를 포함하는 대부분의 엑스선 영상 시스템에 적용될 수 있다.In addition, in the above-described embodiment, it has been described that a large amount of scattering occurs and a CBCT system that is sensitive to scattering is adopted to confirm the effectiveness of the present invention, but the present invention is not necessarily limited thereto. For example, the scattering correction method according to the present invention can be applied not only to a CBCT system but also to most X-ray imaging systems including 2D DR equipment.

본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited by the above-described embodiments and the accompanying drawings. It will be apparent to those of ordinary skill in the art to which the present invention pertains, that components according to the present invention can be substituted, modified, and changed within the scope of the technical spirit of the present invention.

100: 엑스선 영상 획득 장치
200: 엑스선 영상 산란 보정 시스템
210: 훈련영상 생성부
220: 산란 보정부
100: X-ray image acquisition device
200: X-ray image scattering correction system
210: training image generation unit
220: scattering correction unit

Claims (6)

3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 생성하는 훈련영상 생성부; 및
상기 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여 엑스선 영상 획득 장치에 의해 촬영된 엑스선 영상의 산란을 보정하는 산란 보정부를 포함하며,
상기 산란 보정부는 상기 엑스선 영상의 산란 성분 중 고주파 성분 및 저주파 성분에 대해 각각 독립적으로 구성된 딥러닝 네트워크를 이용하여 상기 엑스선 영상의 산란을 보정하는 것을 특징으로 하는 엑스선 영상의 산란 보정 시스템.
A training image generator for generating a simulation image with scattering lines and a target image without scattering lines through Monte Carlo simulation using a 3D volume image; And
A scattering correction unit for correcting scattering of an X-ray image captured by an X-ray image acquisition device using a deep learning algorithm trained using the simulation image and the target image,
The scattering correction unit corrects scattering of the X-ray image using a deep learning network independently configured for a high frequency component and a low frequency component of the scattering components of the X-ray image.
제 1 항에 있어서, 상기 훈련영상 생성부는,
상기 시뮬레이션 영상을 획득하고, 상기 시뮬레이션 영상에서 주 엑스선 성분과 산란선 성분을 분리하여 주 엑스선 영상과 산란선 영상을 각각 획득하는 것을 특징으로 하는 엑스선 영상의 산란 보정 시스템.
The method of claim 1, wherein the training image generator,
A scattering correction system for an X-ray image, comprising obtaining the simulated image and separating a main X-ray component and a scattering ray component from the simulation image to obtain a main X-ray image and a scattering ray image, respectively.
제 1 항에 있어서,
상기 엑스선 영상 획득 장치는 2차원 DR 장비 또는 3차원 CT 장비인 것을 특징으로 하는 엑스선 영상의 산란 보정 시스템.
The method of claim 1,
The X-ray image acquisition device is a 2D DR device or a 3D CT device.
삭제delete 3차원 볼륨 영상을 이용하여 몬테카를로 시뮬레이션을 통해 산란선이 존재하는 시뮬레이션 영상과 산란선이 존재하지 않는 목표영상을 포함하는 훈련영상을 생성하는 단계; 및
상기 시뮬레이션 영상 및 목표영상을 이용하여 훈련된 딥러닝 알고리즘을 이용하여 입력된 엑스선 영상의 산란을 보정하는 단계를 포함하며,
상기 보정하는 단계는 상기 엑스선 영상의 산란 성분 중 고주파 성분 및 저주파 성분에 대해 각각 독립적으로 구성된 딥러닝 네트워크를 이용하여 상기 엑스선 영상의 산란을 보정하는 것을 특징으로 하는 엑스선 영상의 산란 보정 방법.
Generating a training image including a simulation image with a scattering line and a target image without a scattering line through Monte Carlo simulation using a 3D volume image; And
Compensating the scattering of the input X-ray image using a deep learning algorithm trained using the simulation image and the target image,
In the step of correcting, scattering of the X-ray image is corrected using a deep learning network independently configured for a high frequency component and a low frequency component of the scattering components of the X-ray image.
제 5 항에 있어서, 상기 훈련영상을 생성하는 단계는,
상기 시뮬레이션 영상을 획득하고, 상기 시뮬레이션 영상에서 주 엑스선 성분과 산란선 성분을 분리하여 주 엑스선 영상과 산란선 영상을 각각 획득하는 것을 특징으로 하는 엑스선 영상의 산란 보정 방법.
The method of claim 5, wherein generating the training image comprises:
A method for compensating scattering of an X-ray image, comprising acquiring the simulation image and separating a main X-ray component and a scattering ray component from the simulation image to obtain a main X-ray image and a scattering ray image, respectively.
KR1020180144769A 2018-11-21 2018-11-21 System and method for scatter correction of x-ray image KR102182048B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180144769A KR102182048B1 (en) 2018-11-21 2018-11-21 System and method for scatter correction of x-ray image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144769A KR102182048B1 (en) 2018-11-21 2018-11-21 System and method for scatter correction of x-ray image

Publications (2)

Publication Number Publication Date
KR20200059712A KR20200059712A (en) 2020-05-29
KR102182048B1 true KR102182048B1 (en) 2020-11-23

Family

ID=70912276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144769A KR102182048B1 (en) 2018-11-21 2018-11-21 System and method for scatter correction of x-ray image

Country Status (1)

Country Link
KR (1) KR102182048B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102454975B1 (en) * 2020-11-17 2022-10-18 (주)자비스 System, method and program for creating high definition x-ray image basen on deep-learning
CN116188619B (en) * 2023-04-26 2023-09-01 北京唯迈医疗设备有限公司 Method, apparatus and medium for generating X-ray image pair for training

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150145633A (en) * 2014-06-20 2015-12-30 삼성전자주식회사 X-ray imaging apparatus and control method for the same
KR102372165B1 (en) * 2015-01-22 2022-03-11 삼성전자주식회사 X-ray imaging apparatus, image processing apparatus and method for image processing
KR102399148B1 (en) * 2016-11-25 2022-05-19 삼성전자주식회사 X-ray image apparatus and method for obtaining medicalimage thereof
KR102020221B1 (en) * 2017-11-24 2019-09-10 주식회사 레이 Scatter Correction Method and Apparatus of Cone-beam CT for Dental Treatment

Also Published As

Publication number Publication date
KR20200059712A (en) 2020-05-29

Similar Documents

Publication Publication Date Title
CN111448590B (en) Scattering correction based on deep learning
Yin et al. Domain progressive 3D residual convolution network to improve low-dose CT imaging
US11580410B2 (en) 3-D convolutional autoencoder for low-dose CT via transfer learning from a 2-D trained network
CN108230277B (en) Dual-energy CT image decomposition method based on convolutional neural network
US11257191B2 (en) Systems and methods for deblurring medical images using deep neural network
CN103559728B (en) PET image maximum posterior reconstruction method based on united prior model with dissection function
CN110636796B (en) Beam hardening correction in X-ray dark field imaging
CN111260748B (en) Digital synthesis X-ray tomography method based on neural network
JP7408664B2 (en) X-ray imaging system
CN111093503A (en) Method for radiography of patient organ
KR102182048B1 (en) System and method for scatter correction of x-ray image
US8259896B2 (en) Efficient correction of polychromy effects in image reconstruction
Ghane et al. Quantitative analysis of image quality in low-dose CT imaging for Covid-19 patients
JP2017221339A (en) X-ray CT image reconstruction method and computer program
US10363002B2 (en) X-ray CT image reconstruction device, X-ray CT image reconstruction method, and X-ray CT apparatus
CN116630738A (en) Energy spectrum CT imaging method based on depth convolution sparse representation reconstruction network
Liang et al. A model-based unsupervised deep learning method for low-dose CT reconstruction
Son et al. X-ray imaging optimization using virtual phantoms and computerized observer modelling
Lee et al. Ultra-low-dose spectral CT based on a multi-level wavelet convolutional neural network
CN115131277A (en) Estimation device, method, and computer-readable storage medium
KR20140000823A (en) Method for reconstructing of image for polychromatic x-ray tomography
Kim et al. Model-based noise reduction in scatter correction using a deep convolutional neural network for radiography
Harron et al. An image denoising model using deep learning for digital breast tomosynthesis images
US20240104797A1 (en) Systems, Methods, and Media for Material Decomposition and Virtual Monoenergetic Imaging from Multi-Energy Computed Tomography Data
CN112862722B (en) Dual-energy X-ray subtraction method and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant