KR102591665B1 - Apparatus and Method for Correcting CT Image Using Neural Network - Google Patents

Apparatus and Method for Correcting CT Image Using Neural Network Download PDF

Info

Publication number
KR102591665B1
KR102591665B1 KR1020210020892A KR20210020892A KR102591665B1 KR 102591665 B1 KR102591665 B1 KR 102591665B1 KR 1020210020892 A KR1020210020892 A KR 1020210020892A KR 20210020892 A KR20210020892 A KR 20210020892A KR 102591665 B1 KR102591665 B1 KR 102591665B1
Authority
KR
South Korea
Prior art keywords
sub
volume
image
images
volume image
Prior art date
Application number
KR1020210020892A
Other languages
Korean (ko)
Other versions
KR20220117478A (en
Inventor
백종덕
최윤수
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020210020892A priority Critical patent/KR102591665B1/en
Publication of KR20220117478A publication Critical patent/KR20220117478A/en
Application granted granted Critical
Publication of KR102591665B1 publication Critical patent/KR102591665B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

인공 신경망을 이용한 CT 영상 보정 장치 및 방법이 개시된다. 개시된 방법은 CT 영상 촬영 시스템으로부터 획득한 CT 영상 볼륨 영상을 분할하여 다수의 서브 볼륨 영상을 획득하되, 상기 다수의 서브 볼륨 영상 각각을 인접한 서브 볼륨 영상과 일부 영역이 중첩되도록 분할하는 서브 볼륨 영상 획득부; 상기 획득된 다수의 서브 볼륨 영상 각각을 독립적으로 전처리하는 전처리부; 다수의 서브 볼륨 영상 보정 네트워크를 포함하고, 전처리된 다수의 서브 볼륨 영상에 대해 각각 독립적인 서브 볼륨 영상 보정 네트워크에 입력하여 신경망 연산을 수행함으로써 상기 전처리된 다수의 서브 볼륨 영상 각각에 대한 보정 서브 볼륨 영상을 출력하는 서브 볼륨 영상 보정 네트워크 모듈; 및 상기 보정 서브 볼륨 영상들을 결합하여 보정 CT 영상을 생성하는 보정 CT 영상 생성부를 포함한다. 개시된 장치 및 방법에 의하면, CT 영상의 영역별 독립적인 보정을 통해 재구성되는 CT 영상에서 발생하는 아티팩트를 보다 효과적으로 제거할 수 있으며, 다수의 독립적인 인공 신경망을 이용하여 공간별 아티팩트의 양상을 고려한 CT 영상 보정이 가능한 장점이 있다. A CT image correction device and method using an artificial neural network are disclosed. The disclosed method obtains a plurality of sub-volume images by dividing a CT image volume image acquired from a CT imaging system, and obtains sub-volume images by dividing each of the plurality of sub-volume images so that some areas overlap with adjacent sub-volume images. wealth; a pre-processing unit that independently pre-processes each of the acquired sub-volume images; It includes a plurality of sub-volume image correction networks, and inputs each of the plurality of pre-processed sub-volume images into an independent sub-volume image correction network to perform a neural network operation, thereby creating a corrected sub-volume for each of the plurality of pre-processed sub-volume images. A sub-volume image correction network module that outputs images; and a corrected CT image generator that generates a corrected CT image by combining the corrected sub-volume images. According to the disclosed device and method, artifacts occurring in reconstructed CT images can be more effectively removed through independent correction for each region of the CT image, and CT considering the spatial aspect of artifacts using multiple independent artificial neural networks. It has the advantage of being able to correct images.

Description

인공 신경망을 이용한 CT 영상 보정 장치 및 방법{Apparatus and Method for Correcting CT Image Using Neural Network}CT image correction device and method using artificial neural network {Apparatus and Method for Correcting CT Image Using Neural Network}

본 발명은 CT 영상 보정 장치 및 방법에 관한 것으로서, 더욱 상세하게는 인공 신경망을 이용한 CT 영상 보정 장치 및 방법에 관한 것이다. The present invention relates to a CT image correction device and method, and more specifically, to a CT image correction device and method using an artificial neural network.

CT(Computed Tomography) 영상은 종양 및 다양한 병변에 대한 진단을 위해 널리 사용되고 있다. CT (Computed Tomography) images are widely used for diagnosis of tumors and various lesions.

CT 영상은 X-선관이 피사체를 중심으로 회전하여 각기 다른 각도에서 수집된 정보를 재구성해 한 단면의 영상을 나타낸다. CT의 궁극적 목표는 피사체를 여로 각도에서 투과한 방사선을 검출하여 피사체 단면에 대한 흡수치를 컴퓨터를 이용하여 재구성하는 것이다. CT images represent a cross-sectional image by reconstructing information collected at different angles by rotating the X-ray tube around the subject. The ultimate goal of CT is to detect the radiation transmitted through the subject at the angle of travel and reconstruct the absorption value for the subject's cross section using a computer.

CT 단층 영상의 촬영에서 X-선속은 촬영 부위의 단면을 통과하므로 재구성 영상에는 목적 단면(slice) 이외의 정보는 포함되지 않으며 진단 목적 부위의 여러 단층 영상에 대하여 2차원적 평면 영상 또는 3차원적인 볼륨 영상을 관할할 수 있다. In CT tomographic imaging, the It can control volumetric images.

그러나, 다양한 각도에서 촬영된 영상을 CT 영상을 재구성 시 필수적으로 아티팩트(Artifact)가 발생하며 이러한 아티팩트는 정확한 진단을 방해하는 주요한 요인으로 작용한다. 특히, 저선량으로 촬영된 CT 영상의 경우 이러한 아티팩트의 문제는 더욱 심화된다. However, artifacts inevitably occur when reconstructing CT images from images taken at various angles, and these artifacts act as a major factor that hinders accurate diagnosis. In particular, in the case of CT images taken at low doses, the problem of these artifacts becomes more severe.

따라서, CT 영상의 재구성 시 발생하는 아티팩트를 제거하는 CT 영상 보정 작업이 요구되고 있다. Therefore, CT image correction work to remove artifacts that occur when reconstructing CT images is required.

본 발명은 CT 영상의 영역별 독립적인 보정을 통해 재구성되는 CT 영상에서 발생하는 아티팩트를 보다 효과적으로 제거할 수 있는 CT 영상 보정 장치 및 방법을 제안한다. The present invention proposes a CT image correction device and method that can more effectively remove artifacts occurring in a CT image reconstructed through independent correction for each region of the CT image.

또한, 본 발명은 다수의 독립적인 인공 신경망을 이용하여 공간별 아티팩트의 양상을 고려한 CT 영상 보정 장치 및 방법을 제안한다. Additionally, the present invention proposes a CT image correction device and method that considers spatial artifacts using multiple independent artificial neural networks.

상기 목적을 달성하기 위해 본 발명의 일 측면에 따르면, CT 영상 촬영 시스템으로부터 획득한 CT 영상 볼륨 영상을 분할하여 다수의 서브 볼륨 영상을 획득하되, 상기 다수의 서브 볼륨 영상 각각을 인접한 서브 볼륨 영상과 일부 영역이 중첩되도록 분할하는 서브 볼륨 영상 획득부; 상기 획득된 다수의 서브 볼륨 영상 각각을 독립적으로 전처리하는 전처리부; 다수의 서브 볼륨 영상 보정 네트워크를 포함하고, 전처리된 다수의 서브 볼륨 영상에 대해 각각 독립적인 서브 볼륨 영상 보정 네트워크에 입력하여 신경망 연산을 수행함으로써 상기 전처리된 다수의 서브 볼륨 영상 각각에 대한 보정 서브 볼륨 영상을 출력하는 서브 볼륨 영상 보정 네트워크 모듈; 및 상기 보정 서브 볼륨 영상들을 결합하여 보정 CT 영상을 생성하는 보정 CT 영상 생성부를 포함하는 인공 신경망을 이용한 CT 영상 보정 장치가 제공된다. In order to achieve the above object, according to one aspect of the present invention, a CT image volume image obtained from a CT imaging system is divided to obtain a plurality of sub-volume images, and each of the plurality of sub-volume images is divided into adjacent sub-volume images and A sub-volume image acquisition unit that divides some areas so that they overlap; a pre-processing unit that independently pre-processes each of the acquired sub-volume images; It includes a plurality of sub-volume image correction networks, and inputs each of the plurality of pre-processed sub-volume images into an independent sub-volume image correction network to perform a neural network operation, thereby creating a corrected sub-volume for each of the plurality of pre-processed sub-volume images. A sub-volume image correction network module that outputs images; A CT image correction device using an artificial neural network is provided, including a correction CT image generator that combines the correction sub-volume images to generate a correction CT image.

상기 CT 영상 보정 장치는 상기 다수의 서브 볼륨 영상 각각의 분할 영역에 대해 포인트의 임펄스를 인가하여 획득된 다수의 서브 임펄스 볼륨 영상을 저장하는 서브 임펄스 볼륨 영상 저장부를 더 포함한다. The CT image correction device further includes a sub-impulse volume image storage unit that stores a plurality of sub-impulse volume images obtained by applying an impulse of a point to a divided region of each of the plurality of sub-volume images.

상기 전처리부는 상기 각 서브 볼륨 영상과 이에 대응되는 상기 서브 임펄스 볼륨 영상을 각각 병합한다. The preprocessor merges each sub-volume image and the corresponding sub-impulse volume image.

상기 서브 볼륨 영상 보정 네트워크 모듈의 다수의 서브 볼륨 영상 보정 네트워크 각각은 대응되는 서브 볼륨 영상과 연관된 참값 영상을 이용하여 독립적으로 학습된다. Each of the plurality of sub-volume image correction networks of the sub-volume image correction network module is independently learned using a true value image associated with the corresponding sub-volume image.

상기 CT 영상 보정부는 상기 보정 서브 볼륨 영상 결합 시 중첩되는 영역에 대해서는 중첩되는 각 서브 볼륨 영상의 픽셀값들에 대한 평균값을 상기 중첩되는 영역의 픽셀값으로 설정한다. When combining the corrected sub-volume images, the CT image correction unit sets the average value of the pixel values of each overlapping sub-volume image as the pixel value of the overlapping area.

본 발명의 다른 측면에 따르면, CT 영상 촬영 시스템으로부터 획득한 CT 영상 볼륨 영상을 분할하여 다수의 서브 볼륨 영상을 획득하되, 상기 다수의 서브 볼륨 영상 각각을 인접한 서브 볼륨 영상과 일부 영역이 중첩되도록 분할하는 단계(a); 상기 획득된 다수의 서브 볼륨 영상 각각을 독립적으로 전처리하는 단계(b); 전처리된 다수의 서브 볼륨 영상을 각각 독립적인 서브 볼륨 영상 보정 네트워크에 입력하여 신경망 연산을 수행함으로써 상기 전처리된 다수의 서브 볼륨 영상 각각에 대한 보정 서브 볼륨 영상을 출력하는 단계(c); 및 상기 보정 서브 볼륨 영상들을 결합하여 보정 CT 영상을 생성하는 단계(d)를 포함하는 인공 신경망을 이용한 CT 영상 보정 방법이 제공된다. According to another aspect of the present invention, a CT image volume image obtained from a CT imaging system is divided to obtain a plurality of sub-volume images, and each of the plurality of sub-volume images is divided so that a portion of the sub-volume image overlaps with an adjacent sub-volume image. Step (a); independently preprocessing each of the acquired sub-volume images (b); Step (c) of inputting a plurality of pre-processed sub-volume images into an independent sub-volume image correction network and performing a neural network operation to output a corrected sub-volume image for each of the pre-processed sub-volume images; and (d) generating a corrected CT image by combining the corrected sub-volume images. A CT image correction method using an artificial neural network is provided.

본 발명에 의하면, CT 영상의 영역별 독립적인 보정을 통해 재구성되는 CT 영상에서 발생하는 아티팩트를 보다 효과적으로 제거할 수 있는 장점이 있다. According to the present invention, there is an advantage that artifacts occurring in a CT image reconstructed through independent correction for each region of the CT image can be more effectively removed.

또한, 본 발명에 의하면, 다수의 독립적인 인공 신경망을 이용하여 공간별 아티팩트의 양상을 고려하여 CT 영상 보정이 가능한 장점이 있다. Additionally, according to the present invention, there is an advantage in that CT images can be corrected by considering spatial artifact patterns using a plurality of independent artificial neural networks.

도 1은 일반적인 CT 영상의 임펄스 응답 영상을 나타낸 도면.
도 2는 본 발명의 일 실시예에 따른 인공 신경망을 이용한 CT 영상 보정 장치의 개략적 구성을 나타낸 블록도.
도 3은 CT 볼륨 영상으로부터 획득되는 서브 볼륨 영상의 일례를 나타낸 도면.
도 4는 본 발명의 일 실시에에 따라 서브 볼륨 영상을 중첩하여 획득하는 방법을 나타낸 도면.
도 5는 본 발명의 일 실시예에 따라 서브 임펄스 볼륨 영상을 획득하는 방법을 설명한 도면.
도 6은 본 발명의 일 실시예에 따른 전처리 방법을 나타낸 도면.
도 7은 본 발명의 일 실시예에 따른 서브 볼륨 영상 별로 서브 ㅂㄹ륨 영상 보정 네트워크에서 보정 서브 볼륨 영상을 출력하는 구조를 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른 중첩 영역에 대한 평균 보상이 이루어지는 방식을 설명하기 위한 도면.
도 9는 본 발명의 일 실시예에 따른 서브 볼륨 영상 보정 네트워크 모듈의 각 서브 보정 네트워크의 학습 구조를 나타낸 도면.
도 10은 본 발명의 일 실시예에 따른 인공 신경망을 이용한 CT 영상 보정 방법의 전체적인 흐름을 도시한 순서도.
Figure 1 is a diagram showing an impulse response image of a general CT image.
Figure 2 is a block diagram showing the schematic configuration of a CT image correction device using an artificial neural network according to an embodiment of the present invention.
Figure 3 is a diagram showing an example of a sub-volume image obtained from a CT volume image.
Figure 4 is a diagram showing a method of acquiring sub-volume images by overlapping them according to an embodiment of the present invention.
Figure 5 is a diagram illustrating a method of acquiring a sub-impulse volume image according to an embodiment of the present invention.
Figure 6 is a diagram showing a pretreatment method according to an embodiment of the present invention.
Figure 7 is a diagram showing a structure for outputting a corrected sub-volume image from a sub-volume image correction network for each sub-volume image according to an embodiment of the present invention.
Figure 8 is a diagram for explaining how average compensation is performed for an overlapping area according to an embodiment of the present invention.
Figure 9 is a diagram showing the learning structure of each sub-correction network of the sub-volume image correction network module according to an embodiment of the present invention.
Figure 10 is a flowchart showing the overall flow of a CT image correction method using an artificial neural network according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, its operational advantages, and the objectives achieved by practicing the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by explaining preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be implemented in many different forms and is not limited to the described embodiments. In order to clearly explain the present invention, parts that are not relevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when it is said that a part “includes” a certain element, this does not mean excluding other elements, but may further include other elements, unless specifically stated to the contrary. In addition, terms such as “…unit”, “…unit”, “module”, and “block” used in the specification refer to a unit that processes at least one function or operation, which is hardware, software, or hardware. and software.

도 1은 일반적인 CT 영상의 임펄스 응답 영상을 나타낸 도면이다. Figure 1 is a diagram showing an impulse response image of a general CT image.

CT 영상의 임펄스 응답 영상은 소정 위치의 포인트를 CT를 통해 촬영할 경우 획득되는 영상을 의미한다. CT 영상 촬영 시스템에서 획득하는 영상은 3차원의 볼륨 영상이며, 도 1에는 3차원 볼륨 영상에서 중앙부의 XY 평면 영상(축평면), YZ 평면 영상(관상면) 및 ZX 평면 영상(시상면)이 각각 도시되어 있다. The impulse response image of a CT image refers to an image obtained when a point at a certain location is imaged through CT. The image acquired from the CT imaging system is a three-dimensional volume image, and Figure 1 shows the central XY plane image (axial plane), YZ plane image (coronal plane), and ZX plane image (sagittal plane) in the three-dimensional volume image. Each is shown.

아티팩트가 존재하지 않는 다면, 도 1에 도시된 각 평면 영상에는 중앙부에만 포인트가 존재하여야 한다. 그러나, CT 영상이 재구성되는 과정에서 도 1에 도시된 바와 같이 중앙부 이외에도 희미한 아티팩트가 존재하는 것을 확인할 수 있다. If there are no artifacts, there should be a point only in the center of each plane image shown in FIG. 1. However, in the process of reconstructing the CT image, it can be confirmed that faint artifacts exist other than the central area, as shown in FIG. 1.

또한, 특정 평면 영상에는 중앙부의 포인트가 선명하지 않고 포인트가 특정 방향으로 퍼져 그 형상이 왜곡되는 아티팩트 역시 확인할 수 있다. 이러한 포인트의 왜곡은 축평면 영상과 시상면 영상에서는 크고 관상명 영상에서는 크지 않은 것을 도 1로부터 확인할 수 있다. Additionally, in certain flat images, the central point is not clear, and artifacts in which the point is spread in a specific direction and the shape is distorted can also be confirmed. It can be seen from Figure 1 that the distortion of these points is large in the axial and sagittal images, but not large in the coronal image.

이와 같이 CT 영상의 재구성 과정에서 생기는 아티팩트를 제거하는 영상 보정 작업이 CT 영상의 재구성 후 요구된다. In this way, image correction work to remove artifacts that occur during the reconstruction process of the CT image is required after reconstruction of the CT image.

본 발명의 발명자의 연구에 의하면, 아티팩트의 생성 양상은 영상의 영역별로 상이하다. 위 도 1로부터 확인되듯이, 영상의 좌상 영역과 우하 영역에는 아티팩트가 발생하나 다른 영역에는 아티팩트가 발생하지 않는다. 이와 같이 CT 볼륨 영상의 영역별로 아티팩트 생성 양상이 상이하기에 본 발명에서는 영상 전체가 아닌 분할된 서브 볼륨 영상 단위로 영상을 보정하는 방법을 제안한다.According to the research of the inventor of the present invention, the generation pattern of artifacts varies depending on the area of the image. As can be seen from Figure 1 above, artifacts occur in the upper left and lower right areas of the image, but no artifacts occur in other areas. As the artifact generation pattern is different for each region of the CT volume image, the present invention proposes a method of correcting the image in divided sub-volume image units, rather than the entire image.

도 2는 본 발명의 일 실시예에 따른 인공 신경망을 이용한 CT 영상 보정 장치의 개략적 구성을 나타낸 블록도이다. Figure 2 is a block diagram showing the schematic configuration of a CT image correction device using an artificial neural network according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 인공 신경망을 이용한 CT 보정 장치는 서브 볼륨 영상 획득부(200), 서브 임펄스 볼륨 영상 저장부(210), 전처리부(220), 서브 볼륨 영상 보정 네트워크 네트워크 모듈(230) 및 보정 CT 영상 생성부(240)를 포함한다. Referring to FIG. 2, the CT correction device using an artificial neural network according to an embodiment of the present invention includes a sub-volume image acquisition unit 200, a sub-impulse volume image storage unit 210, a preprocessor 220, and a sub-volume image. It includes a correction network network module 230 and a correction CT image generator 240.

서브 볼륨 영상 획득부(200)는 재구성된 CT 볼륨 영상으로부터 서브 볼륨 영상을 획득한다. 서브 볼륨 영상은 CT 볼륨 영상에서 미리 설정된 영역을 분할한 영상이다. The sub-volume image acquisition unit 200 acquires a sub-volume image from the reconstructed CT volume image. A sub-volume image is an image obtained by dividing a preset area from a CT volume image.

도 3은 CT 볼륨 영상으로부터 획득되는 서브 볼륨 영상의 일례를 나타낸 도면이다. Figure 3 is a diagram showing an example of a sub-volume image obtained from a CT volume image.

도 3에 도시된 바와 같이, 서브 볼륨 영상은 CT 볼륨 영상 중 특정 영역의 영상이며, 서브 볼륨 영상의 사이즈는 미리 설정된다. 일례로, CT 볼륨 영상의 사이즈가 21 X 21 X 21일 경우, 하나의 서브 볼륨 영상의 사이즈는 3 X 3 X 3일 수 있다. As shown in FIG. 3, the sub-volume image is an image of a specific area among the CT volume images, and the size of the sub-volume image is set in advance. For example, if the size of the CT volume image is 21

본 발명의 바람직한 실시예에 따르면, 서브 볼륨 영상은 소정 영역이 중첩되도록 획득된다. According to a preferred embodiment of the present invention, the sub-volume image is acquired so that a predetermined area overlaps.

도 4는 본 발명의 일 실시에에 따라 서브 볼륨 영상을 중첩하여 획득하는 방법을 나타낸 도면이다. Figure 4 is a diagram showing a method of acquiring sub-volume images by overlapping them according to an embodiment of the present invention.

도 4를 참조하면, 제1 서브 볼륨 영상(400)은 인접하는 제2 서브 볼륨 영상(410)과 일부 영역이 중첩된다. 또한, 제2 서브 볼륨 영상(410)은 인접하는 제1 서브 볼륨 영상(400) 및 제3 서브 볼륨 영상(420)과 일부 영역이 중첩된다. 제2 서브 볼륨 영상(410)의 좌측부는 제1 서브 볼륨 영상(400)과 중첩되며, 제2 서브 볼륨 영상(410)이 우측부는 제3 서브 볼륨 영상(420)과 중첩된다. Referring to FIG. 4, the first sub-volume image 400 partially overlaps the adjacent second sub-volume image 410. Additionally, the second sub-volume image 410 partially overlaps with the adjacent first sub-volume image 400 and third sub-volume image 420. The left side of the second sub-volume image 410 overlaps with the first sub-volume image 400, and the right side of the second sub-volume image 410 overlaps with the third sub-volume image 420.

도 4에는 인접하는 서브 볼륨 영상간 절반에 해당되는 영역이 서로 중첩되는 경우가 도시되어 있으나 중첩 영역은 이에 한정되지 않으며 다양하게 설정될 수 있을 것이다. 다만, 인접 서브 볼륨 영상간의 중첩 영역은 서브 볼륨 영상의 1/3 이상인 것이 바람직하다. Figure 4 shows a case where half the areas between adjacent sub-volume images overlap each other, but the overlapping area is not limited to this and may be set in various ways. However, it is preferable that the overlap area between adjacent sub-volume images is at least 1/3 of the sub-volume image.

본 발명은 서브 볼륨 영상 단위로 영상을 보정하며, 이와 같은 방식은 각 서브 볼륨 영상의 경계 영역에서 의도하지 않은 에지 라인을 발생시킬 수 있으며, 이는 새로운 아티팩트로 작용할 수 있다. 이와 같은 문제 발생을 방지하기 위해, CT 볼륨 영상으로부터 분할되는 서브 볼륨 영상은 인접하는 서브 볼륨 영상과 중첩되도록 분할되는 것이 바람직하다. The present invention corrects images on a sub-volume image basis, and this method may generate unintended edge lines at the boundary areas of each sub-volume image, which may act as new artifacts. To prevent such problems from occurring, it is preferable that the sub-volume image divided from the CT volume image be divided so that it overlaps the adjacent sub-volume image.

서브 임펄스 볼륨 영상 저장부(210)는 각 서브 볼륨 영사 영역별 임펄스 영상인 서브 임펄스 볼륨 영상을 저장한다. The sub-impulse volume image storage unit 210 stores a sub-impulse volume image, which is an impulse image for each sub-volume projection area.

도 5는 본 발명의 일 실시예에 따라 서브 임펄스 볼륨 영상을 획득하는 방법을 설명한 도면이다. Figure 5 is a diagram explaining a method of acquiring a sub-impulse volume image according to an embodiment of the present invention.

도 5를 참조하면, 각 서브 볼륨 영상 영역별로 포인트의 임펄스를 인가한 후 CT 영상 촬영 시스템으로부터 영상을 획득하여 재구성하며, 이와 같이 재구성된 영상이 서브 임펄스 볼륨 영상이다. Referring to FIG. 5, after an impulse of a point is applied to each sub-volume image area, the image is acquired from a CT imaging system and reconstructed, and the reconstructed image is a sub-impulse volume image.

서브 임펄스 볼륨 영상은 CT 볼륨 영상 보정 시마다 획득되는 것은 아니며, 미리 획득되어 서브 임펄스 볼륨 영상 저장부(210)에 저장된다. The sub-impulse volume image is not acquired every time the CT volume image is corrected, but is acquired in advance and stored in the sub-impulse volume image storage unit 210.

전처리부(220)는 CT 볼륨 영상으로부터 분할되는 서브 볼륨 영상들에 대한 전처리를 수행한다. 구체적으로, 전처리부(220)는 각 서브 볼륨 영상과 각 서브 볼륨 영상에 상응하는 서브 임펄스 볼륨 영상을 서로 병합(Concatenate)한다. 여기서, 병합(Concatenation)은 두 개의 볼륨을 서로 연결하여 결합하는 것을 의미한다. The pre-processing unit 220 performs pre-processing on sub-volume images divided from the CT volume image. Specifically, the preprocessor 220 concatenates each sub-volume image and the sub-impulse volume image corresponding to each sub-volume image. Here, concatenation means combining two volumes by connecting them to each other.

도 6은 본 발명의 일 실시예에 따른 전처리 방법을 나타낸 도면이다. Figure 6 is a diagram showing a pretreatment method according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 전처리는 각각의 서브 볼륨 영상 별로 이뤄어진다. 제1 서브 볼륨 영상은 제1 서브 볼륨 영상 영역에 상응하여 획득된 제1 서브 임펄스 볼륨 영상과 병합되고, 제2 서브 볼륨 영상은 제2 서브 볼륨 영상 영역에 상응하여 획득된 제2 서브 임펄스 볼륨 영상과 병합되는 것이다. As shown in Figure 6, preprocessing is performed for each sub-volume image. The first sub-volume image is merged with the first sub-impulse volume image obtained corresponding to the first sub-volume image area, and the second sub-volume image is merged with the second sub-impulse volume image acquired corresponding to the second sub-volume image area. It is merged with.

서브 볼륨 영상과 서브 임펄스 볼륨 영상과의 병합은 각 영역별로 상이한 아티팩트의 생성 양상을 반영하여 신경망 연산을 수행하기 위해 이루어진다. Merging of the sub-volume image and the sub-impulse volume image is performed to perform a neural network operation by reflecting the generation pattern of different artifacts in each region.

서브 볼륨 영상 보정 네트워크 모듈(230)은 전처리된 각 서브 볼륨 영상에 대해 신경망 연산을 통해 보정 서브 볼륨 영상을 출력한다. The sub-volume image correction network module 230 outputs a corrected sub-volume image through a neural network operation for each pre-processed sub-volume image.

본 발명의 일 실시예에 따르면, 서브 볼륨 영상 보정 네트워크 모듈(230)은 다수의 서브 네트워크 모듈을 포함하며, 서브 네트워크 모듈의 수는 서브 볼륨 영상의 수에 상응하다. 예를 들어, N개의 서브 볼륨 영상이 CT 볼륨 영상으로부터 분할되어 획득될 경우, 서브 볼륨 영상 보정 네트워크 모듈은 N개의 서브 네트워크 모듈을 포함하는 것이다. According to one embodiment of the present invention, the sub-volume image correction network module 230 includes a plurality of sub-network modules, and the number of sub-network modules corresponds to the number of sub-volume images. For example, when N sub-volume images are obtained by dividing a CT volume image, the sub-volume image correction network module includes N sub-network modules.

다수의 서브 볼륨 영상 보정 네트워크 모듈은 서로 독립적이며 학습도 독립적으로 이루어진다. 즉, 제1 서브 볼륨 영상을 위한 제1 서브 볼륨 영상 보정 네트워크와 제2 서브 볼륨 영상을 위한 제2 서브 볼륨 영상 보정 네트워크는 독립적으로 학습되어 가중치를 공유하지 않는 것이다. Multiple sub-volume image correction network modules are independent of each other and learn independently. That is, the first sub-volume image correction network for the first sub-volume image and the second sub-volume image correction network for the second sub-volume image are learned independently and do not share weights.

도 7은 본 발명의 일 실시예에 따른 서브 볼륨 영상 별로 서브 볼륨 영상 보정 네트워크에서 보정 서브 볼륨 영상을 출력하는 구조를 나타낸 도면이다. Figure 7 is a diagram showing a structure for outputting a corrected sub-volume image from a sub-volume image correction network for each sub-volume image according to an embodiment of the present invention.

도 7을 참조하면, 다수의 전처리된 서브 볼륨 영상(서브 임펄스 볼륨 영상과 병합됨 서브 볼륨 영상)은 각 전처리된 서브 볼륨 영상 별로 별도의 서브 볼륨 영상 보정 네트워크로 입력된다. Referring to FIG. 7, a plurality of preprocessed sub-volume images (sub-volume images merged with sub-impulse volume images) are input to a separate sub-volume image correction network for each pre-processed sub-volume image.

본 발명의 바람직한 실시예에 따르면, 각 서브 볼륨 영상 보정 네트워크는 CNN(Convolutional Neural Network)일 수 있으나 이에 한정되는 것은 아니며 신경망 연산을 수행하는 다양한 네트워크가 서브 볼륨 영상 보정 네트워크로 사용될 수 있을 것이다. According to a preferred embodiment of the present invention, each sub-volume image correction network may be a CNN (Convolutional Neural Network), but the present invention is not limited thereto, and various networks that perform neural network operations may be used as the sub-volume image correction network.

제1 서브 임퍼스 볼륨 영상과 병합된 제1 서브 볼륨 영상은 제1 서브 볼륨 영상 보정 네트워크로 입력된다. 제1 서브 볼륨 영상 보정 네트워크는 독립적으로 전처리된 제1 서브 볼륨 영상에 대한 신경망 연산을 수행하여 제1 보정 서브 볼륨 영상을 출력한다. The first sub-volume image merged with the first sub-impus volume image is input to the first sub-volume image correction network. The first sub-volume image correction network performs a neural network operation on the independently pre-processed first sub-volume image and outputs a first corrected sub-volume image.

동일한 방식으로 제2 서브 임펄스 볼륨 영상과 병합된 제2 서브 볼륨 영상은 제2 서브 볼륨 영상 보정 네트워크로 입력되고, 제2 서브 볼륨 영상 보정 네트워크는 독립적으로 전처리된 제2 서브 볼륨 영상에 대한 신경망 연산을 수행하여 제2 보정 서브 볼륨 영상을 출력한다. The second sub-volume image merged with the second sub-impulse volume image in the same manner is input to the second sub-volume image correction network, and the second sub-volume image correction network performs a neural network operation on the independently preprocessed second sub-volume image. Output the second corrected sub-volume image by performing .

이와 같이 독립적인 서브볼륨 영상 보정 네트워크를 이용하여 N개의 전처리된 서브 볼륨 영상에 대해 N개의 보정 서브 볼륨 영상을 출력하도록 동작하는 것이다. In this way, the independent sub-volume image correction network is used to output N corrected sub-volume images for N pre-processed sub-volume images.

다수의 서브 볼륨 영상 보정 네트워크 각각은 특정 영역의 서브 볼륨 영상만을 처리하기 위한 네트워크이며, 학습 역시 해당 영역의 참값 영상(Ground Truth)만을 이용하여 독립적으로 이루어진다. Each of the multiple sub-volume image correction networks is a network for processing only sub-volume images of a specific area, and learning is also performed independently using only the ground truth of the corresponding area.

보정 CT 영상 생성부(240)는 다수의 서브 볼륨 영상 네트워크로부터 출력되는 보정 서브 볼륨 영상들을 분할된 위치에 배치하여 결합하면서 중첩 영역에 대한 평균 보상을 통해 최종 보정 영상을 생성한다. The corrected CT image generator 240 arranges and combines the corrected sub-volume images output from multiple sub-volume image networks at divided positions and generates a final corrected image through average compensation for the overlapping areas.

앞서 설명한 바와 같이, 각각의 서브 볼륨 영상들은 인접한 서브 볼륨 영상과 중첩되도록 분할된다. 각 서브 볼륨 영상들이 서로 중첩되어 있기에 중첩된 영역에 대해서는 중첩된 영역의 픽셀값을 설정할 필요가 있다. 보정 CT 영상 생성부(240)는 해당 영역에 중첩된 서브 볼륨 영상의 수를 고려하여 중첩된 수에 기초한 평균 연산을 통해 중첩 영역의 픽셀 값을 보상한다. As described above, each sub-volume image is divided to overlap adjacent sub-volume images. Since each sub-volume image overlaps each other, it is necessary to set the pixel value of the overlapped area. The corrected CT image generator 240 considers the number of sub-volume images overlapped in the corresponding region and compensates for the pixel value of the overlapped region through an average calculation based on the overlapped number.

예를 들어, 특정 영역에 두 개의 서브 볼륨 영상이 중첩되어 있을 경우, 해당 영역에서 두 개의 서브 볼륨 영상의 픽셀값을 더한 값을 2로 나누어 평균 보상을 수행할 수 있을 것이다. 한편, 예시한 산술 평균뿐만 아니라 다양한 평균 연산이 적용될 수 있을 것이다. 기하 평균은 물론 사인 함수를 이용한 평균 등 다양한 평균 연산 방식이 적용될 수 있다는 점은 당업자에게 있어 자명할 것이다. For example, if two sub-volume images overlap in a specific area, average compensation may be performed by dividing the sum of the pixel values of the two sub-volume images in the area by 2. Meanwhile, various average operations may be applied in addition to the arithmetic average illustrated. It will be obvious to those skilled in the art that various average calculation methods can be applied, such as geometric average as well as average using a sine function.

도 8은 본 발명의 일 실시예에 따른 중첩 영역에 대한 평균 보상이 이루어지는 방식을 설명하기 위한 도면이다. Figure 8 is a diagram for explaining how average compensation for an overlapping area is performed according to an embodiment of the present invention.

도 8을 참조하면, 제1 보정 서브 볼륨 영상(800)과 제2 보정 서브 볼륨 영상(810)은 일부 영역이 중첩되도록 분할된 서브 볼륨 영상들이 보정된 볼륨 영상들이다. Referring to FIG. 8, the first corrected sub-volume image 800 and the second corrected sub-volume image 810 are volume images in which sub-volume images are divided so that some areas overlap.

제1 보정 서브 볼륨 영상(800)의 우측 영역과 제2 보정 서브 볼륨 영상(810)의 좌측 영역은 서로 중첩되며, 이러한 중첩 영역에 대해서는 서로 대응하는 픽셀값들에 대한 평균을 통해 새로운 픽셀값을 설정한다. 앞서 설명한 바와 같이, 서로 대응하는 픽셀값들을 더한 후 2로 나누는 산술 평균이 이루어질 수 있다. The right area of the first corrected sub-volume image 800 and the left area of the second corrected sub-volume image 810 overlap each other, and for this overlapping area, a new pixel value is calculated by averaging the corresponding pixel values. Set it. As described above, an arithmetic average can be performed by adding corresponding pixel values and then dividing by 2.

도 8에 도시된 바와 같은 평균 연산은 모든 보정 서브 볼륨 영상의 모든 중첩 영역에 대해 이루어지며, 분할된 영역으로 각 보정 서브 볼륨 영상이 배치되면서 중첩 영역에 대해 평균 보상이 완료된 영상이 최종 보정 영상이 된다. The average calculation as shown in Figure 8 is performed on all overlapping areas of all corrected sub-volume images, and as each corrected sub-volume image is placed in the divided area, the image for which average compensation has been completed for the overlapping area is the final corrected image. do.

이상에서 살펴본 바와 같이, 본 발명의 CT 영상 보정은 분할된 서브 볼륨 영상별로 이루어진 후 보정된 서브 볼륨 영상은 본래의 위치에 배치하여 최종 보정 영상을 생성하는 방식이며, 이와 같은 방식에 의해 영상의 영역에 따라 서로 다른 임펄스 노이즈가 발생하는 문제를 억제할 수 있으며, 보다 효과적인 노이즈 제거가 가능하다. As seen above, the CT image correction of the present invention is performed for each divided sub-volume image, and then the corrected sub-volume image is placed in its original position to generate the final corrected image. In this way, the area of the image is Accordingly, the problem of different impulse noises occurring can be suppressed, and more effective noise removal is possible.

나아가, 영상의 분할 시 일부 영역이 중첩되도록 설정함으로써 분할 영역에 대한 독립적인 보정 시 발생할 수 있는 노이즈를 제거할 수 있다. Furthermore, by setting some areas to overlap when dividing an image, noise that may occur during independent correction of the divided areas can be removed.

도 9는 본 발명의 일 실시예에 따른 서브 볼륨 영상 보정 네트워크 모듈의 각 서브 보정 네트워크의 학습 구조를 나타낸 도면이다. Figure 9 is a diagram showing the learning structure of each sub-correction network of the sub-volume image correction network module according to an embodiment of the present invention.

앞서 설명한 바와 같이, 각 서브 볼륨 영상 보정 네트워크는 독립적으로 학습이 이루어지며 서로 다른 참값 영상(Ground Truth)을 이용하여 학습을 수행한다. As previously explained, each sub-volume image correction network is trained independently and is trained using different ground truth images.

예를 들어, 제1 서브 볼륨 영상 보정 네트워크는 제1 서브 볼륨 영상을 입력받아 신경망 연산을 수행하여 제1 보정 서브 볼륨 영상을 출력한다. 제1 서브 볼륨 영상 보정 네트워크는 제1 참값 서브 볼륨 영상을 이용하여 학습을 수행하며, 제1 참값 서브 볼륨 영상은 참값 CT 볼륨 영상으로부터 제1 서브 볼륨 영상의 영역을 분할한 영상이다. For example, the first sub-volume image correction network receives the first sub-volume image, performs a neural network operation, and outputs the first correction sub-volume image. The first sub-volume image correction network performs learning using the first true sub-volume image, and the first true sub-volume image is an image obtained by dividing the area of the first sub-volume image from the true CT volume image.

제1 서브 볼륨 영상 보정 네트워크는 제1 참값 서브 볼륨 영상과 출력된 제1 보정 서브 볼륨 영상의 차를 손실로 역전파하여 가중치들을 갱신한다. The first sub-volume image correction network updates the weights by back-propagating the difference between the first true value sub-volume image and the output first corrected sub-volume image with loss.

이와 같은 학습 방식은 제2 서브 볼륨 영상 보정 네트워크 및 제3 서브 볼륨 영상 보정 네트워크에 대해서도 동일하게 이루어진다. This learning method is the same for the second sub-volume image correction network and the third sub-volume image correction network.

제2 서브 볼륨 영상 보정 네트워크는 제2 참값 서브 볼륨 영상을 이용하여 학습을 수행하며, 제2 참값 서브 볼륨 영상은 참값 CT 볼륨 영상에서 제2 서브 볼륨 영상의 영역을 분할한 영상이다. The second sub-volume image correction network performs learning using the second true value sub-volume image, and the second true value sub-volume image is an image obtained by dividing the region of the second sub-volume image from the true value CT volume image.

각각의 서브 볼륨 영상 보정 네트워크가 서로 다른 참값 영상과의 차이를 손실로 역전파하기에 각 서브 볼륨 영상 보정 네트워크의 가중치는 서로 독립적이며, 특정 서브 볼륨 영상 보정 네트워크의 가중치가 다른 서브 볼륨 영상 보정 네트워크의 가중치에 영향을 주지 않는다. Since each sub-volume image correction network backpropagates the difference with the different true value images as a loss, the weights of each sub-volume image correction network are independent of each other, and the weights of a specific sub-volume image correction network are different from each other. does not affect the weight of .

도 10은 본 발명의 일 실시예에 따른 인공 신경망을 이용한 CT 영상 보정 방법의 전체적인 흐름을 도시한 순서도이다. Figure 10 is a flowchart showing the overall flow of a CT image correction method using an artificial neural network according to an embodiment of the present invention.

도 10을 참조하면, CT 촬영 시스템으로부터 재구성된 CT 볼륨 영상을 분할하여 다수의 서브 볼륨 영상을 획득한다(단계 1000). 앞서 설명한 바와 같이, 다수의 서브 볼륨 영상 각각은 인접한 서브 볼륨 영상들과 일부 영역이 중첩되도록 재구성된 CT 볼륨 영상으로부터 분할된다. Referring to FIG. 10, the CT volume image reconstructed from the CT imaging system is divided to obtain a plurality of sub-volume images (step 1000). As described above, each of the multiple sub-volume images is divided from the reconstructed CT volume image so that some areas overlap with adjacent sub-volume images.

다수의 서브 볼륨 영상이 획득되면, 각 서브 볼륨 영상에 대한 전처리를 수행한다(단계 1002). 각 서브 볼륨 영상과 해당 서브 볼륨 영상 영역의 서브 임펄스 볼륨 영상을 병합하는 방식으로 전처리가 이루어진다. When multiple sub-volume images are acquired, preprocessing is performed on each sub-volume image (step 1002). Preprocessing is performed by merging each sub-volume image and the sub-impulse volume image of the corresponding sub-volume image area.

서브 볼륨 영상에 대한 전처리가 이루어지면, 각 전처리된 서브 볼륨 영상을 각각 독립적인 서브 볼륨 영상 보정 네트워크를 통해 보정한다(단계 1004). 각 전처리된 서브 볼륨 영상은 독립적으로 보정되며, 각각의 서브 볼륨 영상 보정 네트워크는 가중치를 공유하지 않는다. When pre-processing of the sub-volume image is performed, each pre-processed sub-volume image is corrected through an independent sub-volume image correction network (step 1004). Each preprocessed sub-volume image is independently corrected, and each sub-volume image correction network does not share weights.

보정된 서브 볼륨 영상은 각각의 분할 영역으로 배치되고, 중첩되는 영역의 픽셀값은 평균 보상을 통해 보정하여 최종적인 보정 영상을 생성한다(단계 1006). 앞서 설명한 바와 같이, 중첩되는 영역은 각 서브 볼륨 영상의 픽™X값들에 대한 다양한 평균 연산을 통해 최종적인 픽셀값을 정할 수 있을 것이다. The corrected sub-volume image is placed in each divided area, and pixel values in the overlapping area are corrected through average compensation to generate the final corrected image (step 1006). As described above, the final pixel value of the overlapping area can be determined through various average calculations on the pick and x values of each sub-volume image.

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention can be implemented as a computer program stored on a medium for execution on a computer. Here, computer-readable media may be any available media that can be accessed by a computer, and may also include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data, including read-only memory (ROM). It may include dedicated memory), RAM (random access memory), CD (compact disk)-ROM, DVD (digital video disk)-ROM, magnetic tape, floppy disk, optical data storage device, etc.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the attached claims.

Claims (10)

CT 영상 촬영 시스템으로부터 획득한 CT 영상 볼륨 영상을 분할하여 다수의 서브 볼륨 영상을 획득하되, 상기 다수의 서브 볼륨 영상 각각을 인접한 서브 볼륨 영상과 일부 영역이 중첩되도록 분할하는 서브 볼륨 영상 획득부;
상기 획득된 다수의 서브 볼륨 영상 각각을 독립적으로 전처리하는 전처리부;
다수의 서브 볼륨 영상 보정 네트워크를 포함하고, 전처리된 다수의 서브 볼륨 영상 각각을 대응되는 서브 볼륨 영상 보정 네트워크에 입력하여 신경망 연산을 수행함으로써 상기 전처리된 다수의 서브 볼륨 영상 각각에 대한 보정 서브 볼륨 영상을 출력하는 서브 볼륨 영상 보정 네트워크 모듈; 및
상기 보정 서브 볼륨 영상들을 결합하여 보정 CT 영상을 생성하는 보정 CT 영상 생성부를 포함하되,
상기 보정 CT 영상 보정부는 상기 보정 서브 볼륨 영상 결합 시 중첩되는 영역에 대해서는 중첩되는 각 서브 볼륨 영상의 픽셀값들에 대한 평균값을 상기 중첩되는 영역의 픽셀값으로 설정하고,
상기 다수의 서브 볼륨 영상의 사이즈는 미리 설정되고, 상기 다수의 서브 볼륨 영상 보정 네트워크는 독립적으로 학습되어 가중치를 공유하지 않는 인공 신경망을 이용한 CT 영상 보정 장치.
A sub-volume image acquisition unit that divides a CT image volume image acquired from a CT imaging system to obtain a plurality of sub-volume images, and divides each of the plurality of sub-volume images so that some areas overlap with adjacent sub-volume images;
a pre-processing unit that independently pre-processes each of the acquired sub-volume images;
It includes a plurality of sub-volume image correction networks, and inputs each of the plurality of pre-processed sub-volume images into the corresponding sub-volume image correction network to perform a neural network operation to produce a corrected sub-volume image for each of the plurality of pre-processed sub-volume images. a sub-volume image correction network module that outputs; and
Comprising a corrected CT image generator that combines the corrected sub-volume images to generate a corrected CT image,
When combining the corrected sub-volume images, the corrected CT image correction unit sets the average value of the pixel values of each overlapping sub-volume image as the pixel value of the overlapping area for the overlapping area,
The size of the plurality of sub-volume images is preset, and the plurality of sub-volume image correction networks are independently learned and do not share weights. A CT image correction device using an artificial neural network.
제1항에 있어서,
상기 다수의 서브 볼륨 영상 각각의 분할 영역에 대해 포인트의 임펄스를 인가하여 획득된 다수의 서브 임펄스 볼륨 영상을 저장하는 서브 임펄스 볼륨 영상 저장부를 더 포함하는 것을 특징으로 하는 인공 신경망을 이용한 CT 영상 보정 장치.
According to paragraph 1,
A CT image correction device using an artificial neural network, further comprising a sub-impulse volume image storage unit that stores a plurality of sub-impulse volume images obtained by applying impulses of points to each divided region of the plurality of sub-volume images. .
제2항에 있어서,
상기 전처리부는 상기 각 서브 볼륨 영상과 이에 대응되는 상기 서브 임펄스 볼륨 영상을 각각 병합하는 것을 특징으로 하는 인공 신경망을 이용한 CT 영상 보정 장치.
According to paragraph 2,
The preprocessor is a CT image correction device using an artificial neural network, wherein the preprocessor merges each sub-volume image and the corresponding sub-impulse volume image.
제3항에 있어서,
상기 서브 볼륨 영상 보정 네트워크 모듈의 다수의 서브 볼륨 영상 보정 네트워크 각각은 대응되는 서브 볼륨 영상과 연관된 참값 영상을 이용하여 독립적으로 학습되는 것을 특징으로 하는 인공 신경망을 이용한 CT 영상 보정 장치.

According to paragraph 3,
A CT image correction device using an artificial neural network, wherein each of the plurality of sub-volume image correction networks of the sub-volume image correction network module is independently learned using a true value image associated with the corresponding sub-volume image.

삭제delete CT 영상 촬영 시스템으로부터 획득한 CT 영상 볼륨 영상을 분할하여 다수의 서브 볼륨 영상을 획득하되, 상기 다수의 서브 볼륨 영상 각각을 인접한 서브 볼륨 영상과 일부 영역이 중첩되도록 분할하는 단계(a);
상기 획득된 다수의 서브 볼륨 영상 각각을 독립적으로 전처리하는 단계(b);
전처리된 다수의 서브 볼륨 영상을 다수의 서브 볼륨 영상 보정 네트워크들 중 대응되는 서브 볼륨 영상 보정 네트워크에 입력하여 신경망 연산을 수행함으로써 상기 전처리된 다수의 서브 볼륨 영상 각각에 대한 보정 서브 볼륨 영상을 출력하는 단계(c); 및
상기 보정 서브 볼륨 영상들을 결합하여 보정 CT 영상을 생성하는 단계(d)를 포함하되,
상기 단계(d)는 상기 보정 서브 볼륨 영상 결합 시 중첩되는 영역에 대해서는 중첩되는 각 서브 볼륨 영상의 픽셀값들에 대한 평균값을 상기 중첩되는 영역의 픽셀값으로 설정하고,
상기 다수의 서브 볼륨 영상의 사이즈는 미리 설정되고, 상기 다수의 서브 볼륨 영상 보정 네트워크는 독립적으로 학습되어 가중치를 공유하지 않는 인공 신경망을 이용한 CT 영상 보정 방법.
A step (a) of dividing a CT image volume image obtained from a CT imaging system to obtain a plurality of sub-volume images, and dividing each of the plurality of sub-volume images so that a portion of the sub-volume image overlaps with an adjacent sub-volume image;
independently preprocessing each of the acquired sub-volume images (b);
Inputting a plurality of pre-processed sub-volume images into a corresponding sub-volume image correction network among a plurality of sub-volume image correction networks to perform a neural network operation to output a corrected sub-volume image for each of the plurality of pre-processed sub-volume images Step (c); and
A step (d) of generating a corrected CT image by combining the corrected sub-volume images,
The step (d) sets the average value of the pixel values of each overlapping sub-volume image as the pixel value of the overlapping area for the overlapping area when combining the corrected sub-volume images,
A CT image correction method using an artificial neural network in which the sizes of the multiple sub-volume images are preset, and the multiple sub-volume image correction networks are learned independently and do not share weights.
제6항에 있어서,
상기 다수의 서브 볼륨 영상 각각의 분할 영역에 대해 포인트의 임펄스를 인가하여 획득된 다수의 서브 임펄스 볼륨 영상을 저장하는 단계를 더 포함하는 것을 특징으로 하는 인공 신경망을 이용한 CT 영상 보정 방법.
According to clause 6,
A CT image correction method using an artificial neural network, further comprising the step of storing a plurality of sub-impulse volume images obtained by applying an impulse of a point to a divided region of each of the plurality of sub-volume images.
제7항에 있어서,
상기 단계(b)는 상기 각 서브 볼륨 영상과 이에 대응되는 상기 서브 임펄스 볼륨 영상을 각각 병합하는 것을 특징으로 하는 인공 신경망을 이용한 CT 영상 보정 방법.
In clause 7,
The step (b) is a CT image correction method using an artificial neural network, characterized in that each sub-volume image and the corresponding sub-impulse volume image are merged.
제8항에 있어서,
상기 서브 볼륨 영상 보정 네트워크 각각은 대응되는 서브 볼륨 영상과 연관된 참값 영상을 이용하여 독립적으로 학습되는 것을 특징으로 하는 인공 신경망을 이용한 CT 영상 보정 방법.




According to clause 8,
A CT image correction method using an artificial neural network, wherein each sub-volume image correction network is independently learned using a true value image associated with the corresponding sub-volume image.




삭제delete
KR1020210020892A 2021-02-17 2021-02-17 Apparatus and Method for Correcting CT Image Using Neural Network KR102591665B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210020892A KR102591665B1 (en) 2021-02-17 2021-02-17 Apparatus and Method for Correcting CT Image Using Neural Network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210020892A KR102591665B1 (en) 2021-02-17 2021-02-17 Apparatus and Method for Correcting CT Image Using Neural Network

Publications (2)

Publication Number Publication Date
KR20220117478A KR20220117478A (en) 2022-08-24
KR102591665B1 true KR102591665B1 (en) 2023-10-18

Family

ID=83111943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210020892A KR102591665B1 (en) 2021-02-17 2021-02-17 Apparatus and Method for Correcting CT Image Using Neural Network

Country Status (1)

Country Link
KR (1) KR102591665B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180018757A1 (en) 2016-07-13 2018-01-18 Kenji Suzuki Transforming projection data in tomography by means of machine learning
WO2019145149A1 (en) 2018-01-26 2019-08-01 Koninklijke Philips N.V. Using deep learning to reduce metal artifacts
US20200302660A1 (en) * 2019-03-21 2020-09-24 Ziehm Imaging Gmbh X-ray system for the iterative determination of an optimal coordinate transformation between overlapping volumes that have been reconstructed from volume data sets of discretely scanned object areas

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10475214B2 (en) * 2017-04-05 2019-11-12 General Electric Company Tomographic reconstruction based on deep learning
EP3503038A1 (en) * 2017-12-22 2019-06-26 Promaton Holding B.V. Automated 3d root shape prediction using deep learning methods
EP3561778A1 (en) * 2018-04-26 2019-10-30 Promaton Holding B.V. Automated correction of metal affected voxel representations of x-ray data using deep learning techniques

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180018757A1 (en) 2016-07-13 2018-01-18 Kenji Suzuki Transforming projection data in tomography by means of machine learning
WO2019145149A1 (en) 2018-01-26 2019-08-01 Koninklijke Philips N.V. Using deep learning to reduce metal artifacts
US20200302660A1 (en) * 2019-03-21 2020-09-24 Ziehm Imaging Gmbh X-ray system for the iterative determination of an optimal coordinate transformation between overlapping volumes that have been reconstructed from volume data sets of discretely scanned object areas

Also Published As

Publication number Publication date
KR20220117478A (en) 2022-08-24

Similar Documents

Publication Publication Date Title
US11727569B2 (en) Training a CNN with pseudo ground truth for CT artifact reduction
JP5243449B2 (en) Apparatus, method, and computer program for generating corrected image of region of interest from acquired projection data
US6078638A (en) Pixel grouping for filtering cone beam detector data during 3D image reconstruction
CN103065279B (en) Method and system for substantially reducing artifact in circular cone beam computer tomography (CT)
US9224216B2 (en) High density forward projector for spatial resolution improvement for medical imaging systems including computed tomography
CN110298447B (en) Method for processing parameters of machine learning method and reconstruction method
CN105528800B (en) A kind of computer tomography artifact correction method and device
US20110044559A1 (en) Image artifact reduction
JP2008528228A (en) Radial adaptive filter for metal artifact correction
JP4342164B2 (en) Computed tomography equipment
WO2019173452A1 (en) Deep neural network for ct metal artifact reduction
KR101591381B1 (en) Method for reducing metal artifact in computed tomography
US9704223B2 (en) Method and system for substantially reducing cone beam artifacts based upon adaptive scaling factor in circular computer tomography (CT)
CN115205406A (en) System and method for correcting defective pixels in computed tomography detectors using deep learning networks
KR102382602B1 (en) 3D convolutional neural network based cone-beam artifact correction system and method
KR102591665B1 (en) Apparatus and Method for Correcting CT Image Using Neural Network
JPH0759763A (en) Three-dimensional object measuring system
CN113192155B (en) Spiral CT cone beam scanning image reconstruction method, scanning system and storage medium
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
US8571171B2 (en) Reconstructing a tomographic image with reduced artifacts
CN112085811A (en) Method and device for CT local reconstruction
WO1993006560A1 (en) Restoration of computer-tomographic images with neural networks
JP7403994B2 (en) Medical image processing device and medical image processing method
CN110942494B (en) System for iterative reconstruction of computed tomography images using three data fields
US20210350593A1 (en) Efficient motion-compensation in cone beam computed tomography based on data consistency

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant