KR102472464B1 - Image Processing Method and Image Processing Device using the same - Google Patents

Image Processing Method and Image Processing Device using the same Download PDF

Info

Publication number
KR102472464B1
KR102472464B1 KR1020200124122A KR20200124122A KR102472464B1 KR 102472464 B1 KR102472464 B1 KR 102472464B1 KR 1020200124122 A KR1020200124122 A KR 1020200124122A KR 20200124122 A KR20200124122 A KR 20200124122A KR 102472464 B1 KR102472464 B1 KR 102472464B1
Authority
KR
South Korea
Prior art keywords
image
discriminator
virtual
image processing
processing method
Prior art date
Application number
KR1020200124122A
Other languages
Korean (ko)
Other versions
KR20220040872A (en
Inventor
유선경
박형석
전기완
Original Assignee
충남대학교병원
기초과학연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충남대학교병원, 기초과학연구원 filed Critical 충남대학교병원
Priority to KR1020200124122A priority Critical patent/KR102472464B1/en
Publication of KR20220040872A publication Critical patent/KR20220040872A/en
Application granted granted Critical
Publication of KR102472464B1 publication Critical patent/KR102472464B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명은 영상처리방법에 관한 것으로, 보다 구체적으로는 생성적 적대 신경망(Generative Adversarial Networks, GAN) 기반의 영상처리시스템으로서, 생성자(G)에 CT장치로 촬영된 제1CT영상이 입력됨에 따라, 상기 제1CT영상에서 잡음을 제거하여 가상의 CT영상으로 변환하여 출력하는 영상변환단계(S10)와; 판별자(D)에 상기 가상의 CT영상 또는 CT장치로 잡음이 제거되도록 촬영된 상기 제2CT영상이 입력됨에 따라 진위여부를 판별하는 영상판별단계(S20)와; 상기 판별자(D)로부터 출력된 진위 여부에 따라 상기 생성자(G) 또는 상기 판별자(D)의 파라미터를 조정하는 학습단계(S30)를 포함하는 것을 특징으로 하는 영상처리방법을 개시한다.The present invention relates to an image processing method, and more specifically, to an image processing system based on generative adversarial networks (GAN). an image conversion step (S10) of removing noise from the first CT image, converting it into a virtual CT image, and outputting the image; an image discrimination step (S20) of determining authenticity as the virtual CT image or the 2nd CT image captured by the CT device is input to the discriminator (D); A learning step (S30) of adjusting parameters of the generator (G) or the discriminator (D) according to the authenticity output from the discriminator (D) is disclosed.

Description

영상처리방법 및 이를 이용한 영상처리장치{Image Processing Method and Image Processing Device using the same}Image processing method and image processing device using the same {Image Processing Method and Image Processing Device using the same}

본 발명은, CT영상의 잡음을 제거하는 영상처리방법 및 이를 이용한 영상처리장치에 관한 기술이다.The present invention relates to an image processing method for removing noise from a CT image and an image processing apparatus using the same.

의료영역에 있어서, 전산화 단층촬영(Computed Tomography:CT,이하 CT)은 인체에 X선을 투과, 횡단면 상 단층으로 영상을 획득하여 검사하는 방법으로서, 작은 조직밀도차이도 구별할 수 있으며, 초음파와 달리 뼈 등에 의한 제약이 없으며, 넓은 부위를 신속히 촬영할 수 있어 각광받고 있다. In the medical field, computed tomography (CT, hereinafter CT) transmits X-rays through the human body and obtains images in tomograms on a cross-section. Unlike, there are no restrictions due to bones, etc., and it is in the spotlight because it can quickly photograph a wide area.

한편, CT 촬영 시 방사선이 필수적으로 발생하게 되며, 방사선은 DNA를 변형시키거나, 암을 유발하는 등 인체에 부정적 영향을 미치므로 CT 촬영 시 환자에 미치는 방사선량을 최소화하는 기술이 필요하다.On the other hand, radiation is inevitably generated during CT imaging, and since radiation has negative effects on the human body, such as modifying DNA or causing cancer, a technique for minimizing radiation dose to patients during CT imaging is required.

상기 방사선량은 환자에게 노출되는 양을 최소화함이 이상적이나 이는 영상 잡음(image noise)의 증가로 인한 CT 영상 품질 저하를 초래하여 의사의 의학적 판단에 어려움을 주는 문제가 발생할 수 있다.Ideally, the radiation dose should minimize the amount exposed to the patient, but this may cause a CT image quality deterioration due to an increase in image noise, which may cause difficulties in medical judgment by doctors.

따라서 일반적으로 병원에서는 어느 정도의 영상 잡음을 허용한 저선량(low dose,저방사선량) CT를 촬영하게 된다.Therefore, in general, hospitals perform low-dose (low-radiation) CT scans that allow a certain degree of image noise.

다만, 저선량 CT의 잡음제거를 위하여, 지난 몇 년간 다양한 딥러닝 알고리즘(Deep learning algorithm)이 제시되었으며, 크게 인체모형(Phantom)을 이용하여 두 가지 조건으로 촬영하여 얻은 짝이 있는 데이터(paired dataset)를 이용한 방법과, 수치 시뮬레이션으로 저선량 CT영상을 생성하여 짝이 있는 데이터를 획득 후 딥러닝 알고리즘을 획득하는 방법이 있었다.However, in order to eliminate noise in low-dose CT, various deep learning algorithms have been proposed over the past few years, and paired datasets obtained by imaging under two conditions using a human body model (Phantom) There was a method using a method, and a method of obtaining a deep learning algorithm after obtaining paired data by generating a low-dose CT image through numerical simulation.

그러나, 이러한 방법들은 실제 임상환경과 차이가 있어 임상에 바로 적용하기에는 한계가 있었다.However, these methods are different from the actual clinical environment, so there are limitations in applying them directly to clinical practice.

본 발명의 목적은 상기와 같은 문제점을 해결하기 위하여, 짝이 맞지 않는 영상을 이용한 영상보정 딥러닝 알고리즘을 개시한다.An object of the present invention is to disclose an image correction deep learning algorithm using mismatched images in order to solve the above problems.

본 발명은 상기와 같은 본 발명의 목적을 달성하기 위하여 창출된 것으로서,The present invention was created to achieve the object of the present invention as described above,

생성적 적대 신경망(Generative Adversarial Networks, GAN) 기반의 영상처리시스템으로서, 생성자(G)에 CT장치로 촬영된 제1CT영상이 입력됨에 따라, 상기 제1CT영상에서 잡음을 제거하여 가상의 CT영상으로 변환하여 출력하는 영상변환단계(S10)와; 판별자(D)에 상기 가상의 CT영상 또는 CT장치로 잡음이 제거되도록 촬영된 상기 제2CT영상이 입력됨에 따라 진위여부를 판별하는 영상판별단계(S20)와; 상기 판별자(D)로부터 출력된 진위여부에 따라 상기 생성자(G) 또는 판별자(D))의 파라미터를 조정하는 학습단계(S30)를 포함하는 것을 특징으로 하는 영상처리방법을 개시한다.As an image processing system based on generative adversarial networks (GAN), as the first CT image captured by the CT device is input to the generator (G), noise is removed from the first CT image to obtain a virtual CT image. An image conversion step (S10) of converting and outputting; an image discrimination step (S20) of determining authenticity as the virtual CT image or the 2nd CT image captured by the CT device is input to the discriminator (D); Disclosed is an image processing method comprising a learning step (S30) of adjusting parameters of the generator (G) or the discriminator (D) according to the authenticity output from the discriminator (D).

본 발명의 영상처리방법은, 상기 제1CT영상과 상기 제2CT영상은 짝이 맞지 않는 것을 특징으로 할 수 있다.The image processing method of the present invention may be characterized in that the 1st CT image and the 2nd CT image do not match.

상기 제2CT영상의 CT촬영에서의 관전류(TC2)는, 상기 제1CT영상 CT촬영에서의 관전류(TC1)보다 클 수 있다.The tube current TC2 in the CT scan of the 2nd CT image may be greater than the tube current TC1 in the CT scan of the 1st CT image.

상기 제2CT영상의 CT촬영에서의 관전압(TV2)은, 상기 제1CT영상 CT촬영에서의 관전압(TV1)과 같을 수 있다.The tube voltage (TV2) in the CT scan of the 2nd CT image may be the same as the tube voltage (TV1) in the CT scan of the 1st CT image.

상기 생성자(G)는,The constructor (G),

Figure 112020101967202-pat00001
Figure 112020101967202-pat00001

의 네트워크를 가지며, 여기서, 상기

Figure 112020101967202-pat00002
은 상기 제1CT영상이고, 상기
Figure 112020101967202-pat00003
은 상기 생성자(G)가 상기 제1CT영상으로부터 변환한 상기 가상의 CT영상이며, 상기 λ는 조정되는 파라미터이고, 상기
Figure 112020101967202-pat00004
는 상기 가상의 CT영상에 대한 상기 판별자(D)의 판별결과이며, 상기
Figure 112020101967202-pat00005
는 상기 제1CT영상에 대한 확률분포를 나타내며, E는 주어진 확률분포에 대한 기댓값을 나타낼 수 있다.has a network of, wherein the
Figure 112020101967202-pat00002
is the first CT image, and
Figure 112020101967202-pat00003
is the virtual CT image converted from the 1st CT image by the generator (G), λ is a parameter to be adjusted,
Figure 112020101967202-pat00004
Is the discrimination result of the discriminator (D) for the virtual CT image,
Figure 112020101967202-pat00005
represents a probability distribution for the first CT image, and E may represent an expected value for a given probability distribution.

상기

Figure 112020101967202-pat00006
는, 상기
Figure 112020101967202-pat00007
의 tissue 값이 0이 되도록
Figure 112020101967202-pat00008
로 리스케일링되되, 여기서, 상기
Figure 112020101967202-pat00009
는 리스케일링 된 상기 제1CT영상이고, 상기
Figure 112020101967202-pat00010
는 평균 HU(Hounsfield Unit)값이며, 상기 c는 CT의 최댓값의 역수일 수 있다.remind
Figure 112020101967202-pat00006
, the above
Figure 112020101967202-pat00007
so that the tissue value of is 0
Figure 112020101967202-pat00008
Rescaled to , where, the above
Figure 112020101967202-pat00009
is the rescaled 1 CT image,
Figure 112020101967202-pat00010
Is an average Hounsfield Unit (HU) value, and c may be the reciprocal of the maximum value of CT.

상기 생성자(G)는 리스케일링 된 상기 제1CT영상인 상기

Figure 112020101967202-pat00011
으로부터 가상의 CT영상인
Figure 112020101967202-pat00012
를 변환하되, 상기
Figure 112020101967202-pat00013
는,
Figure 112020101967202-pat00014
의 함수를 가지고, 여기서, 상기
Figure 112020101967202-pat00015
는 함수의 합성을 나타내며, 상기
Figure 112020101967202-pat00016
는 k번째 레이어를 나타내고, 상기 k는 조정되는 파라미터이며, k>0일 수 있다.The generator (G) is the rescaled 1CT image
Figure 112020101967202-pat00011
virtual CT image from
Figure 112020101967202-pat00012
Convert the above
Figure 112020101967202-pat00013
Is,
Figure 112020101967202-pat00014
With a function of where, the
Figure 112020101967202-pat00015
Represents the composition of the function, wherein
Figure 112020101967202-pat00016
denotes a k-th layer, k is a parameter to be adjusted, and may be k>0.

상기 판별자(D)는,

Figure 112020101967202-pat00017
의 함수를 가지며, 여기서, 상기
Figure 112020101967202-pat00018
는 상기 제2CT영상이며, 상기
Figure 112020101967202-pat00019
는 상기 가상의 CT영상에 대한 상기 판별자(D)의 판별결과이고, 상기
Figure 112020101967202-pat00020
는 상기 제2CT영상에 대한 상기 판별자(D)의 판별결과이며, 상기
Figure 112020101967202-pat00021
는 상기 제2CT영상에 대한 확률분포를 나타내고, 상기
Figure 112020101967202-pat00022
는 상기 제1CT영상에 대한 확률분포이며, E는 주어진 확률분포에 대한 기댓값을 나타낼 수 있다.The discriminator (D),
Figure 112020101967202-pat00017
Has a function of, where the
Figure 112020101967202-pat00018
is the second CT image, and
Figure 112020101967202-pat00019
Is the discrimination result of the discriminator (D) for the virtual CT image,
Figure 112020101967202-pat00020
Is the discrimination result of the discriminator (D) for the 2nd CT image,
Figure 112020101967202-pat00021
Represents a probability distribution for the second CT image,
Figure 112020101967202-pat00022
Is a probability distribution for the first CT image, and E may represent an expected value for a given probability distribution.

상기

Figure 112020101967202-pat00023
는, 상기
Figure 112020101967202-pat00024
의 tissue의 값이 0이 되도록
Figure 112020101967202-pat00025
로 리스케일링되되, 여기서, 상기
Figure 112020101967202-pat00026
는 리스케일링 된 상기 제2CT영상이고, 상기
Figure 112020101967202-pat00027
는 평균 HU(Hounsfield Unit)값이며, 상기 c는 CT의 최댓값의 역수일 수 있다.remind
Figure 112020101967202-pat00023
, the above
Figure 112020101967202-pat00024
so that the value of tissue in is 0
Figure 112020101967202-pat00025
Rescaled to , where, the above
Figure 112020101967202-pat00026
is the rescaled 2 CT image,
Figure 112020101967202-pat00027
Is an average Hounsfield Unit (HU) value, and c may be the reciprocal of the maximum value of CT.

또한, 본 발명프로그램을 저장하는 메모리 및 프로세서를 포함하는 영상처리장치로서, 상기 프로그램들이 상기 프로세서에 의해 실행될 때 청구항 1 내지 9중 어느 하나의 항의 영상처리방법을 수행하는 것을 특징으로 하는 영상처리장치를 개시한다.In addition, an image processing device including a memory and a processor for storing the program of the present invention, wherein the image processing method according to any one of claims 1 to 9 is performed when the programs are executed by the processor. Initiate.

본 발명은, 관전압은 일치시키고 관전류를 증가시켜 획득한 환자 영상을 참조영상으로 이용함으로써 저선량 영상에서의 밝기를 유지하는 동시에 고선량 영상에서와 같이 잡음이 제거될 수 있는 효과를 가진다.According to the present invention, by using a patient image obtained by matching tube voltage and increasing tube current as a reference image, brightness in a low-dose image can be maintained while noise can be removed as in a high-dose image.

또한, 본 발명은, 짝이 맞지 않는 실제 임상 영상으로 영상처리방법을 학습할 수 있으므로 기존의 CT장비 및 진료환경에 직접 적용이 가능하다는 이점이 있다.In addition, the present invention has an advantage in that it can be directly applied to existing CT equipment and medical treatment environments because image processing methods can be learned from actual clinical images that do not match.

또한, 본 발명은 리스케일링 및 생성자(G) 네트워크의 마지막에 tanh(kx)를 위치시킴으로써 효율적으로 잡음제거훈련을 시킬 수 있는 이점이 잇다. In addition, the present invention has the advantage of efficiently denoising training by placing tanh(kx) at the end of the rescaling and generator (G) networks.

또한, 본 발명은, 저선량 영상의 잡음제거기술을 탑재하지 못한 종래 CT장치에 적용하여 영상화질개선이 가능하다는 이점이 있다. In addition, the present invention has an advantage in that image quality can be improved by applying it to a conventional CT device that does not have a low-dose image noise removal technology.

또한, 본 발명은, 영상보정알고리즘의 네트워크 구조 및 이에 제공되는 영상을 저선량 CT환경에 적합하게 구성하여 보정성능을 향상시킨 이점이 있다.In addition, the present invention has an advantage of improving the correction performance by configuring the network structure of the image correction algorithm and the image provided thereto to be suitable for a low-dose CT environment.

또한, 본 발명은, 잡음 제거 외에, 다양한 영상저하요인(i,e.,motion artifacts, metal arifacts)에 의한 영상 보정에 확장 적용 가능성이 있다.In addition, the present invention has the possibility of being extended to image correction by various image deterioration factors (i, e., motion artifacts, metal artifacts) in addition to noise removal.

도 1은, 본 발명의 영상처리방법이 훈련되는 흐름을 보여주는 개념도이다.
도 2는, 도 1의 영상처리방법에 따라 훈련된 영상처리방법을 이용하여 실제 임상환경에서 영상처리가 수행되는 흐름을 보여주는 개념도이다.
도 3은, 본 발명의 영상처리방법에 사용되는 CT 영상의 관전류, 관전압 및 방사선량의 지표(CTDI,DLP)등을 보여주는 표이다.
도 4는, 본 발명의 영상처리방법의 학습방식을 사용한 생성자(G)를 보여주는 그래프이다.
도 5a는, 본 발명의 영상처리방법의 학습방식에 의하여 잡음제거효율향상 효과를 보여주는 표이다.
도 5b는, 본 발명의 영상처리방법의 학습방식에 의하여 잡음제거효율향상 효과를 보여주는 사진이다.
1 is a conceptual diagram showing the training flow of the image processing method of the present invention.
FIG. 2 is a conceptual diagram showing a flow of image processing performed in an actual clinical environment using an image processing method trained according to the image processing method of FIG. 1 .
3 is a table showing tube current, tube voltage, and radiation dose indicators (CTDI, DLP) of a CT image used in the image processing method of the present invention.
4 is a graph showing a generator (G) using the learning method of the image processing method of the present invention.
5A is a table showing the noise removal efficiency improvement effect by the learning method of the image processing method of the present invention.
5B is a photograph showing the effect of improving the noise removal efficiency by the learning method of the image processing method of the present invention.

이하, 본 발명에 따른 이미지 보정 시스템과 이를 이용한 이미지 보정방법에 관하여 첨부된 도면을 참조하여 설명한다.Hereinafter, an image correction system according to the present invention and an image correction method using the same will be described with reference to the accompanying drawings.

본 발명의 핵심특징은, 딥러닝 기반으로 학습된 인공신경망을 사용하여 영상의 잡음을 저감시키는 기술을 제공하는 것이며, 특히 생성적 적대 신경망(GAN,Generative Adversarial Networks)으로 영상처리방법을 학습시키게 된다.A key feature of the present invention is to provide a technology for reducing noise in an image using an artificial neural network learned based on deep learning, and in particular, to learn an image processing method with generative adversarial networks (GANs). .

즉, 본 발명은, 생성적 적대 신경망(Generative Adversarial Networks, GAN) 기반의 네트워크를 이용한 영상처리방법으로서, 생성자(G)에 CT장치로 촬영된 제1CT영상이 입력됨에 따라, 상기 제1CT영상에서 잡음을 제거하여 가상의 CT영상으로 변환하여 출력하는 영상 변환단계(S10)와; 판별자(D)에 상기 가상의 CT영상 또는 CT장치로 잡음이 제거되도록 촬영된 상기 제2CT영상이 입력됨에 따라 진위여부를 판별하는 영상판별단계(S20)와; 상기 판별자(D)로부터 출력된 진위 여부에 따라 상기 생성자(G)의 파라미터를 조정하는 학습단계(S30)를 포함하는 것을 특징으로 하는 영상처리방법을 개시한다.That is, the present invention is an image processing method using a network based on generative adversarial networks (GAN). an image conversion step (S10) of removing noise, converting the image into a virtual CT image, and outputting the image; an image discrimination step (S20) of determining authenticity as the virtual CT image or the 2nd CT image captured by the CT device is input to the discriminator (D); Disclosed is an image processing method comprising a learning step (S30) of adjusting the parameters of the generator (G) according to the authenticity output from the discriminator (D).

여기서 영상은 정적 영상(이미지) 및 동적 영상을 포함하는 개념으로서 다양하게 해석될 수 있음은 물론이다.Here, the image can be variously interpreted as a concept including a static image (image) and a dynamic image.

상기 영상처리방법은, 영상의 잡음(image noise)를 보정하는 방법으로서, X-선,MICT(Molecular Imaging and computed tomography), MRI(Magnetic Resonance imaging)등 영상의 종류에 상관없이 보정 가능하나, 의료이미지 특히 CT 장치에 의하여 촬영된 복부, 흉부, 비뇨생식기, 척추 등의 CT 영상에 사용됨이 바람직하다.The image processing method is a method of correcting image noise, and can be corrected regardless of the type of image such as X-ray, Molecular Imaging and computed tomography (MICT), and Magnetic Resonance imaging (MRI). Images are preferably used for CT images of the abdomen, chest, genitourinary system, spine, etc. taken by a CT device.

여기서 CT 영상은 촬영시 환자에게 노출되는 상대적인 방사선량에 따라 저선량 CT(LDCT,low dose computed tomography), 표준선량CT(SDCT,Standard dose computed tomography)으로 분류될 수 있으며, 각각 다른 특성을 가지게된다.Here, CT images can be classified into low dose computed tomography (LDCT) and standard dose computed tomography (SDCT) according to the relative radiation dose to which the patient is exposed during imaging, and each has different characteristics.

일 예로, 방사선량이 적을수록 영상의 밝기 레벨(Brightness level)은 높으나 잡음이 심해지며, 방사선량이 많을수록 밝기레벨(Brightness level)은 낮아지나 잡음이 적어지는 특성이 있다.For example, the lower the radiation dose, the higher the brightness level of the image, but the higher the noise, and the higher the radiation dose, the lower the brightness level but the lower the noise.

여기서 방사선량은 관전압(Tube Voltage), 관전류(Tube Current), 피치, 빔폭조절, 스캔범위와 횟수 등 다양한 인자에 의해 영향을 받게 된다.Here, the radiation dose is affected by various factors such as tube voltage, tube current, pitch, beam width control, scan range and number of times.

한편, 후술 될 영상처리방법은 환자로부터 획득된 상기 제1CT영상 및 상기 제2CT영상과, 상기 제1CT영상을 변환하여 출력된 상기 가상의 CT영상을 이용하여 영상보정방법을 학습시키게 된다. Meanwhile, an image processing method to be described later learns an image correction method using the 1st CT image and the 2nd CT image acquired from a patient, and the virtual CT image output by converting the 1st CT image.

여기서, 상기 제1CT영상은, CT촬영장치에 의하여 촬영된 영상데이터셋으로서, 하나 이상의 영상으로 이루어 질 수 있다.Here, the first CT image is an image data set captured by a CT imaging device, and may consist of one or more images.

상기 제1CT영상은, 실제 환자를 대상으로 촬영된 영상으로서, 판독 가능한 정도의 영상 잡음(image noise)까지만 허용한 저선량(low dose) CT영상일 수 있다.The first CT image is an image taken of an actual patient, and may be a low dose CT image that allows only readable image noise.

한편, 상기 가상의 CT영상은, 생성자(G)에 의하여 상기 제1CT영상에서 잡음을 제거하여 가상의 CT영상으로 변환하여 출력된 영상으로서, 하나 이상의 영상으로 이루어 질 수 있다. On the other hand, the virtual CT image is an image output by removing noise from the first CT image by the creator (G) and converting it into a virtual CT image, and may be composed of one or more images.

구체적으로, 상기 가상의 CT영상은, 실제 환자를 대상으로 촬영된 영상이 아니며, 생성자(G)가 상기 제1CT영상으로부터 잡음을 제거하여 생성한 가상의 CT영상이다.Specifically, the virtual CT image is not an image taken of an actual patient, but a virtual CT image generated by the creator (G) by removing noise from the first CT image.

이때, 상기 제1CT영상으로부터 잡음을 제거하기 위한 다양한 방법들이 사용될 수 있다. At this time, various methods for removing noise from the 1st CT image may be used.

예를 들어, 필터링 기반의 잡음제거 방법으로 공간 영역(spatial domain)필터, 비지역적 필터(nonlocal maen filter), 양방향 필터(bilateral filter), NLBayes(Non-Local Bayes), BM3D(Block-matching and 3D filtering) WNNM(Weighted Nuclear Norm Minimization)등이 있으며, 딥러닝 기반의 잡음제거 방법으로, 가우시안 잡음을 제거하는 DnCNN(Denoising Convolutional Neural Network) 등 다양한 잡음제거 방법이 사용될 수 있다.For example, spatial domain filter, nonlocal main filter, bilateral filter, NLBayes (Non-Local Bayes), BM3D (Block-matching and 3D) as filtering-based noise removal methods filtering) WNNM (Weighted Nuclear Norm Minimization), etc. As a deep learning-based denoising method, various denoising methods such as DnCNN (Denoising Convolutional Neural Network) that removes Gaussian noise can be used.

한편, 상기 제2CT영상은 CT촬영장치에 의하여 촬영된 영상데이터셋으로서, 하나 이상의 영상으로 이루어질 수 있으며, 상기 제1CT영상보다 잡음이 저감 된 영상일 수 있다.Meanwhile, the 2nd CT image is an image data set captured by a CT imaging device, and may consist of one or more images, and may be an image with reduced noise compared to the 1st CT image.

상기 제2CT영상은, 상기 제1CT영상보다 잡음을 저감 시키기 위하여, 영상촬영시 방사선량을 높일 수 있으며, 이를 위해 관전압(Tube Voltage,TV) 및 관전류(Tube Current,TC)를 조정할 수 있다.In order to reduce the noise of the 2nd CT image compared to the 1st CT image, radiation dose can be increased during imaging, and for this purpose, tube voltage (TV) and tube current (Tube Current, TC) can be adjusted.

종래에는 영상보정을 위하여 CT촬영 시 관전압을 증가시켜 잡음이 저감된 영상을 참고영상으로(본 발명의 제2CT영상) 사용하였으나, 이 경우 영상의 잡음이 저감되는 동시에 밝기 레벨이 저하되므로, 보정된 영상 역시 영상의 밝기레벨이 낮아지게 되는 문제점이 있었다.Conventionally, for image correction, an image in which noise was reduced by increasing tube voltage during CT scan was used as a reference image (the second CT image of the present invention). The image also had a problem in that the brightness level of the image was lowered.

즉, 도 5a에 도시된 바와 같이, 제2CT영상의 관전압을 제1CT영상의 관전압보다 증가시켜 획득한 가상의 CT영상 모델(Group2)은 저선량 영상(Group1)에 비하여 attenuation(음영,밝기)값이 감소 된 점과 도 5b에서, Group2 영상이 Group1 영상에 비하여 밝기레벨이 낮음을 확인함으로써 알 수 있다.That is, as shown in FIG. 5A, the virtual CT image model (Group2) obtained by increasing the tube voltage of the 2nd CT image than that of the 1st CT image has a higher attenuation (shading, brightness) value than that of the low-dose image (Group1). It can be seen by confirming that the brightness level of the Group2 image is lower than that of the Group1 image in FIG. 5B.

이에 본 발명은, 도 3에 도시된 바와 같이, 상기 제1CT영상에 해당하는 저선량영상(LDCT)과 상기 제2CT영상에 해당하는 표준선량영상(SDCT)의 관전압은 80kVp로 동일하고, 저선량영상(LDCT)의 관전류는 85mAs로, 표준선량영상(SDCT)의 관전류는 160mAs로 함으로써 방사선양이 증가한 동시에 밝기레벨은 유지할수있는 제2CT영상을 획득할 수 있도록 하였다.Accordingly, in the present invention, as shown in FIG. 3, the tube voltage of the low-dose image (LDCT) corresponding to the 1st CT image and the standard-dose image (SDCT) corresponding to the 2nd CT image is the same as 80 kVp, and the low-dose image ( The tube current of LDCT) was 85 mAs, and the tube current of standard dose image (SDCT) was 160 mAs, so that the second CT image could be obtained while maintaining the brightness level while increasing the radiation dose.

다시 말하면, 상기 제2CT영상의 CT촬영에서의 관전류(TC2)를 상기 제1CT영상의 CT촬영에서의 관전류(TC1)보다 크게 하고, 상기 제2CT영상의 CT촬영에서의 관전압(TV2)을 상기 제1CT영상 CT촬영에서의 관전압(TV1)과 같게 함으로써, 밝기레벨은 유지하는 동시에 잡음이 저감된 상기 제2CT영상을 획득할 수 있도록 하였다. In other words, the tube current (TC2) in the CT scan of the 2nd CT image is made larger than the tube current (TC1) in the CT scan of the 1st CT image, and the tube voltage (TV2) in the CT scan of the 2nd CT image is set to the first. By setting the tube voltage (TV1) in the 1CT image CT scan to be the same, it was possible to acquire the 2nd CT image with reduced noise while maintaining the brightness level.

한편, 상기 제2CT영상은, 상기 제1CT영상과 짝이 맞지 않을 수 있다.Meanwhile, the 2nd CT image may not be matched with the 1st CT image.

즉, 상기 제2CT영상과 상기 제1CT영상은 각기 다른 환자로부터 촬영되어 짝이 맞지 않는 영상일 수 있으며, 이는 한 명의 환자에게 CT를 두 번 이상 촬영한다는 것은 윤리적으로 받아들여지기 어려워 짝이 있는 데이터를 실제 환자에게서 획득하기 어렵기 때문이다.That is, the 2nd CT image and the 1st CT image may be non-matched images taken from different patients, and this is because it is ethically unacceptable to take CT scans more than once on a single patient, and paired data This is because it is difficult to obtain from real patients.

한편, 본 발명은 생성적 적대 신경망 기반의 네트워크를 이용하여 저선량 CT영상에서 잡음을 제거하여 가상의 CT영상, 즉 가상의 표준선량 CT영상을 생성하는 것을 그 요지로 한다.Meanwhile, the gist of the present invention is to generate a virtual CT image, that is, a virtual standard-dose CT image, by removing noise from a low-dose CT image using a generative adversarial neural network-based network.

생성적 적대 신경망 기반의 네트워크에서 생성자(G)와 판별자(D)는 번갈아 학습되며, 생성자(G)는 가상 데이터를 생성하고, 판별자(D)는 가상 데이터와 실제데이터를 구분해내는데, 생성자(G)는 판별자(D)가 판별하지 못하도록 더욱 정교하게 가상데이터를 생성하게 되며 판별자(D)는 더욱 정밀하게 가상데이터를 판별하게 된다. 그 결과, 생성자(G)는 실제와 흡사한 데이터를 생성하게 된다.In a generative adversarial network-based network, generators (G) and discriminators (D) are alternately learned, generators (G) generate virtual data, and discriminators (D) distinguish virtual data from real data. The generator (G) generates virtual data more elaborately so that the discriminator (D) cannot discriminate, and the discriminator (D) discriminates the virtual data more precisely. As a result, the generator (G) generates data similar to reality.

즉, 본 발명에서 생성자(G)는 제1CT영상으로부터 가상의 CT영상을 생성하며 판별자(D)는 가상의 CT영상과 제2CT영상을 판별해내고 학습을 통해 생성자(G)는 더욱 정교하게 가상의 CT영상을 생성하며 판별자(D)는 더욱 정밀하게 가상의 CT영상을 판별해내게 된다. That is, in the present invention, the generator (G) generates a virtual CT image from the 1st CT image, and the discriminator (D) discriminates between the virtual CT image and the 2nd CT image, and through learning, the generator (G) more elaborately A virtual CT image is generated, and the discriminator (D) discriminates the virtual CT image more precisely.

여기서, 생성적 적대 신경망은 영상생성에 아무런 제약조건이 없어 보정 할 영상의 형태학적 정보가 소실될 우려가 있지만, 본 발명에서는 생성적 적대 신경망에 제약을 가하여 영상의 형태학적 정보를 유지하면서 잡음을 제거하도록 하였으며, 생성적 적대신경망의 제약조건은 딥러닝 생성자(G)를 통한 영상과 원 영상의 차이(distance)를 최소화하도록 구성될 수 있다.Here, the generative adversarial neural network has no constraints on image generation, so there is a concern that the morphological information of the image to be corrected may be lost. The constraints of the generative adversarial network can be configured to minimize the distance between the image through the deep learning generator (G) and the original image.

상기 생성적 적대 신경망을 이용한 본 발명의 영상처리방법은, 도 1에 도시된 바와 같이, 크게 영상변환단계(S10)와 영상판별단계(S20) 및 학습단계(S30)를 포함하며, 각 단계는 필요에 따라 논리적으로 수행 순서가 바뀔 수 있는 범위 안에서 각 동작의 순서가 바뀔 수 있으며, 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.As shown in FIG. 1, the image processing method of the present invention using the generative adversarial neural network largely includes an image conversion step (S10), an image discrimination step (S20), and a learning step (S30), each step Of course, the order of each operation can be changed within the range where the execution order can be logically changed as needed, and some steps can be added or deleted.

먼저, 각 단계가 수행되기 전에 영상 잡음값 등의 특성들이 수식에 의하여 계산될 수 있게 하며 각 특성들의 값의 범위를 비슷하게 만들기 위하여 데이터 스케일링을 수행하는 과정이 필요하다.First, before each step is performed, it is necessary to perform data scaling so that characteristics such as an image noise value can be calculated by a formula, and to make the value ranges of each characteristic similar.

데이터 스케일링은 정규화, 표준화 등 다양한 방식이 있으며, 종래에는 데이터 정규화 방식을 사용하여

Figure 112020101967202-pat00028
으로 스케일링하였다.Data scaling has various methods such as normalization and standardization. Conventionally, data normalization method is used to
Figure 112020101967202-pat00028
scaled by

여기서, x는 CT영상인바,

Figure 112020101967202-pat00029
는 스케일링된 CT영상을 의미한다.Here, x is a CT image,
Figure 112020101967202-pat00029
denotes a scaled CT image.

그러나 본 발명에서는 보다 효율적으로 잡음제거를 수행할 수 있도록 제1CT영상 또는 저선량 CT영상에서의 tissue 잡음제거에 적합한 리스케일링 방식을 제안한다. However, the present invention proposes a rescaling method suitable for tissue noise removal in the 1st CT image or low-dose CT image so that noise removal can be performed more efficiently.

즉, 본 발명은 데이터 스케일링 시

Figure 112020101967202-pat00030
로 데이터를 스케일링하는 방식을 제안한다. That is, in the present invention, when scaling data
Figure 112020101967202-pat00030
We propose a method for scaling the data with

본 발명은 이와 같은 리스케일링을 통하여

Figure 112020101967202-pat00031
가 될 수 있도록 하며, 이는 종래 데이터 정규화 방식과 달리 tissue를 0 근방에 위치되게 할 수 있는 이점이 있다. The present invention through such rescaling
Figure 112020101967202-pat00031
, and this has the advantage of being able to position the tissue near 0, unlike the conventional data normalization method.

여기서, x는 CT영상인바,

Figure 112020101967202-pat00032
는 스케일링된 CT영상을 의미하며,
Figure 112020101967202-pat00033
는 평균 HU(Hounsfield Unit)값이며, c는 CT의 최대값의 역수이다.Here, x is a CT image,
Figure 112020101967202-pat00032
denotes a scaled CT image,
Figure 112020101967202-pat00033
is the average Hounsfield Unit (HU) value, and c is the reciprocal of the maximum value of CT.

예를 들어, 제1CT영상인 상기

Figure 112020101967202-pat00034
은, 상기
Figure 112020101967202-pat00035
의 tissue 값이 0이 되도록
Figure 112020101967202-pat00036
로 리스케일링되며, 제2CT영상인 상기
Figure 112020101967202-pat00037
는, 상기
Figure 112020101967202-pat00038
의 tissue의 값이 0이 되도록
Figure 112020101967202-pat00039
로 리스케일링 될 수 있는 것이다.For example, the first CT image
Figure 112020101967202-pat00034
silver, above
Figure 112020101967202-pat00035
so that the tissue value of is 0
Figure 112020101967202-pat00036
It is rescaled to , and the second CT image
Figure 112020101967202-pat00037
, the above
Figure 112020101967202-pat00038
so that the value of tissue in is 0
Figure 112020101967202-pat00039
It can be rescaled with

도 5a 내지 도 5b는 각 영상처리방법의 성능 비교 결과를 보여주는 자료로서, Group1 내지 Group4는 각각 저선량영상, 표준선량영상, 데이터정규화학습방법, 리스케일링 학습방법 등 다양한 조건에서 처리된 영상의 성능비교결과를 보여준다.5A to 5B are data showing performance comparison results of each image processing method, and Group 1 to Group 4 compare performance of images processed under various conditions such as low-dose image, standard-dose image, data normalization learning method, and rescaling learning method, respectively. Show results.

여기서, Group4는 본 발명의 영상처리방법 및 리스케일링 학습방법을 이용한 모델이며, Group3은 종래 사용되는 데이터정규화방식으로 학습 되어 획득한 가상의 CT영상의 모델이다.Here, Group 4 is a model using the image processing method and rescaling learning method of the present invention, and Group 3 is a model of a virtual CT image obtained by learning with a conventionally used data normalization method.

즉, 도 5a에서, SNR(신호대잡음비,Signal-to-Noise Ratio)값은 상기 본 발명의 Group4(영상처리방법 및 리스케일링 학습방법을 이용한 모델)의 경우 liver, portal, aorta에서 각각 14.8±3.1, 25.7±6.5, 29.4±7.8이며, Group3(데이터 정규화를 이용하여 학습 된 모델)의 경우 liver, portal, aorta에서 각각 11.6±2.3, 20.9±4.7, 24.5±6.5이고, CNR(대조도대잡음비,Contrast-to-Noise Ratio)값은 Gruop4의 경우, 7.8±2.2, 18.8±5.8, 22.4±7.0이며, Group 3의 경우, 5.9±1.7, 15.2±4.2, 18.8±5.9로써 Group4의 SNR 및 CNR값이 Group3의 SNR 및 CNR 값에 비하여 유의미하게 향상된 것을 확인할 수 있다.That is, in FIG. 5a, the SNR (Signal-to-Noise Ratio) value was 14.8 ± 3.1 in liver, portal, and aorta, respectively, in the case of Group 4 (model using image processing method and rescaling learning method) of the present invention. , 25.7±6.5, 29.4±7.8, and Group3 (model learned using data normalization) was 11.6±2.3, 20.9±4.7, 24.5±6.5 in liver, portal, and aorta, respectively, and CNR (contrast-to-noise ratio, Contrast-to-Noise Ratio) values are 7.8±2.2, 18.8±5.8, 22.4±7.0 for Group 4, and 5.9±1.7, 15.2±4.2, 18.8±5.9 for Group 3, which means that the SNR and CNR values of Group 4 are It can be seen that it is significantly improved compared to the SNR and CNR values of Group3.

이를 통해, 본 발명의 리스케일링을 사용한 방식이 종래의 데이터정규화를 이용한 스케일링방식에 비하여 잡음이 보다 효율적으로 저감 됨을 알 수 있다. From this, it can be seen that the method using the rescaling of the present invention reduces noise more efficiently than the conventional scaling method using data normalization.

한편, 상기의 방법으로 리스케일링된 데이터를 이용하여, 도 1에 도시된 바와 같은 영상처리방법이 수행될 수 있다.Meanwhile, an image processing method as shown in FIG. 1 may be performed using the data rescaled by the above method.

상기 영상처리방법은 생성적 적대 신경망을 이용한 영상변환단계(S10), 영상판별단계(S20) 및 학습단계(S30)를 포함하는 방법으로서, 다양하게 구성될 수 있으며 각 단계는 필요에 의하여 순서가 변경되거나 일부 단계가 삭제될 수 있음은 물론이다.The image processing method includes an image conversion step (S10) using a generative adversarial neural network, an image discrimination step (S20), and a learning step (S30). Of course, it may be changed or some steps may be deleted.

또한, 각 단계 사이에는 제1CT영상, 제2CT영상 및 가상의 CT영상 데이터와 생성자(G) 네트워크 및 판별자(D) 네트워크의 결과값을 저장할 수 있는 저장부가 포함된 저장단계가 구성될 수 있음은 물론이다.In addition, between each step, a storage step including a storage unit capable of storing the 1st CT image, 2nd CT image, virtual CT image data, and the result values of the generator (G) network and discriminator (D) network can be configured. is of course

상기 영상변환단계(S10)는, 상기 생성자(G) 네트워크에 CT 장치로 촬영된 제1CT영상이 입력됨에 따라, 상기 제1CT영상에서 잡음을 제거하여 가상의 CT 영상으로 변환하여 출력하는 단계이다.The image conversion step (S10) is a step of converting and outputting a virtual CT image by removing noise from the first CT image as the first CT image captured by the CT device is input to the generator (G) network.

이때, 상기 생성자(G) 네트워크에서는, 다양한 딥 러닝 알고리즘이 사용될 수 있으며, 예를 들어, Convolution, ReLU(Rectified Linear Unit), pooling, unplooling 등이 이용될 수 있다.At this time, in the generator (G) network, various deep learning algorithms may be used, for example, convolution, Rectified Linear Unit (ReLU), pooling, unplooling, and the like.

상기 영상판별단계(S20)는, 상기 생성자(G)가 생성한 가상의 CT영상을 이용하여 판별자(D) 네트워크에 상기 가상의 CT영상 또는 CT장치로 촬영된 상기 제2CT영상이 입력됨에 따라 상기 가상의 CT영상과 상기 제2CT영상의 진위여부를 판별하여 결과값을 출력하는 단계로서, 다양한 구성이 가능하다.In the image discrimination step (S20), the virtual CT image or the 2nd CT image captured by the CT device is input to the network of the discriminator (D) using the virtual CT image generated by the creator (G). As a step of determining whether the virtual CT image and the second CT image are genuine or not and outputting a resultant value, various configurations are possible.

마지막으로 상기 학습단계(S30)는, 상기 판별자(D)로부터 출력된 결과값에 따라 상기 제2CT영상과 상기 가상의 CT영상의 잡음차를 최소화시키도록 상기 생성자(G) 및 상기 판별자(D)의 파라미터를 조정하여 업데이트하는 단계로서, 다양한 구성이 가능하다.Finally, in the learning step (S30), the generator (G) and the discriminator ( As a step of adjusting and updating the parameters of D), various configurations are possible.

상기 각 단계를 거치면서 상기 생성자(G)와 상기 판별자(D)는 최적의 성능을 가지도록 학습되게 되며, 충분히 학습된 생성자(G) 및 상기 판별자(D)를 포함하는 훈련된 영상처리방법은 도 2에 도시된 바와 같이, 실제 임상환경의 영상보정단계에 이용될 수 있다. Through each of the above steps, the generator (G) and the discriminator (D) are learned to have optimal performance, and the trained image processing includes the sufficiently learned generator (G) and the discriminator (D). As shown in FIG. 2, the method may be used in an image correction step in an actual clinical environment.

한편, 이하에서 본 발명의 생성자(G) 및 판별자(D)의 학습과정을 구체적으로 설명한다.Meanwhile, the learning process of the generator (G) and the discriminator (D) of the present invention will be described in detail below.

일반적으로 생성적 적대 신경망 기반의 네트워크는, 상기 생성자(G) 및 상기 판별자(D) 각각의 네트워크를 가지고 있으며, 각 네트워크는 선택된 손실함수를 최적화하는 과정을 통하여 생성자(G) 및 판별자(D)를 학습하게 된다.In general, a generative adversarial neural network-based network has a generator (G) and discriminator (D) networks, and each network is a generator (G) and a discriminator (G) and discriminator ( D) to learn.

본 발명은, 상기 생성자(G) 네트워크의 손실함수로In the present invention, the loss function of the generator (G) network

Figure 112020101967202-pat00040
를 개시한다.
Figure 112020101967202-pat00040
Initiate.

여기서

Figure 112020101967202-pat00041
은 제1CT영상이고,
Figure 112020101967202-pat00042
은 생성자가 변환한 가상의 CT영상이며, λ는 조정되는 파라미터이고,
Figure 112020101967202-pat00043
는 가상의 CT영상에 대한 판별자(D)의 판별결과이며,
Figure 112020101967202-pat00044
는 상기 제1CT영상에 대한 확률분포이며, E는 주어진 확률분포에 대한 기댓값을 나타낸다.here
Figure 112020101967202-pat00041
is the first CT image,
Figure 112020101967202-pat00042
is a virtual CT image converted by the creator, λ is a parameter to be adjusted,
Figure 112020101967202-pat00043
is the discrimination result of the discriminator (D) for the virtual CT image,
Figure 112020101967202-pat00044
Is a probability distribution for the first CT image, and E represents an expected value for a given probability distribution.

그리고,

Figure 112020101967202-pat00045
는, 상기 함수의 손실값을 최소화하는 생성자(G)를 찾는 것을 나타낸다.and,
Figure 112020101967202-pat00045
Indicates finding a generator (G) that minimizes the loss value of the function.

구체적으로, 상기 생성자(G) 함수는 두 개의 항(term)으로 구성될 수 있으며, 상기 생성자(G) 함수는 이 두 개의 항으로부터 두 데이터에 대한 평균 정보량을 얻어내기 위하여 기댓값을 취하여 엔트로피를 구하고, 전체 정보량을 계산하여 최적화된 생성자(G)를 얻으려 노력한다.Specifically, the generator (G) function may be composed of two terms, and the generator (G) function obtains the entropy by taking the expected value in order to obtain the average amount of information for the two data from the two terms , and try to obtain an optimized generator (G) by calculating the total amount of information.

보다 구체적으로, 첫 번째 항인

Figure 112020101967202-pat00046
에서,
Figure 112020101967202-pat00047
는 판별자(D)가 가상의 CT영상을 보고 판별한 0에서 1 사이의 예측 확률 값으로서, 상기 첫번째 항은
Figure 112020101967202-pat00048
가 1에 가까운 값을 생성하도록 상기 생성자(G)를 학습시키는 부분이다.More specifically, the first term
Figure 112020101967202-pat00046
at,
Figure 112020101967202-pat00047
Is a predicted probability value between 0 and 1 determined by the discriminator (D) by looking at a virtual CT image, and the first term is
Figure 112020101967202-pat00048
This is the part where the generator (G) is trained to generate a value close to 1.

또한, 두 번째 항인

Figure 112020101967202-pat00049
에서,
Figure 112020101967202-pat00050
은, 생성자(G)가 생성한 가상의 CT영상과 생성자(G)에 입력된 제1CT영상의 차이에 관한 것으로서, 상기 두 번째 항은, 딥러닝 생성자(G)를 통한 영상과 원 영상의 차이(distance)를 최소화하여 영상의 형태학적 정보를 최대한 유지하면서 잡음을 제거하기 위한 부분으로 제약조건 부분이다.Also, the second term
Figure 112020101967202-pat00049
at,
Figure 112020101967202-pat00050
relates to the difference between the virtual CT image generated by the creator (G) and the 1st CT image input to the creator (G), and the second term is the difference between the image through the deep learning creator (G) and the original image It is a constraint condition part to remove noise while maintaining the morphological information of the image as much as possible by minimizing the distance.

즉, 상기 생성자(G)는, 상기 두 개의 항의 합한 정보량의 기댓값이 최소화되는 방향으로 학습됨으로써, 상기 판별자(D)가 제2CT영상과 구별하지 못하는 동시에, 원 영상의 형태학적 정보를 최대한 유지한 가상의 CT영상을 생성할 수 있는 최적화된 생성자(G)로 발전하게 된다.That is, the generator (G) learns in a direction in which the expected value of the sum of the two terms is minimized, so that the discriminator (D) cannot distinguish it from the 2nd CT image and at the same time maintains the morphological information of the original image as much as possible. It develops into an optimized generator (G) capable of generating a virtual CT image.

한편, 상기 생성자(G)의 최적화를 위하여 상기 판별자(D) 또한 최적화됨으로써 상기 생성자(G) 네트워크에 피드백을 제공할 수 있다.Meanwhile, for the optimization of the generator (G), the discriminator (D) is also optimized so that feedback can be provided to the generator (G) network.

본 발명은, 상기 판별자(D) 네트워크의 손실함수로In the present invention, the loss function of the discriminator (D) network

Figure 112020101967202-pat00051
의 함수를 개시한다.
Figure 112020101967202-pat00051
Initiate the function of

여기서

Figure 112020101967202-pat00052
는 제2CT영상이며,
Figure 112020101967202-pat00053
는 가상의 CT영상에 대한 판별자(D)의 판별결과이고,
Figure 112020101967202-pat00054
는 제2CT영상에 대한 판별자(D)의 판별결과이며,
Figure 112020101967202-pat00055
는 상기 제2CT영상에 대한 확률분포이고,
Figure 112020101967202-pat00056
는 상기 제1CT영상에 대한 확률분포이며, E는 주어진 확률분포에 대한 기댓값을 나타낸다.here
Figure 112020101967202-pat00052
is the second CT image,
Figure 112020101967202-pat00053
Is the discrimination result of the discriminator (D) for the virtual CT image,
Figure 112020101967202-pat00054
is the discrimination result of the discriminator (D) for the second CT image,
Figure 112020101967202-pat00055
Is a probability distribution for the second CT image,
Figure 112020101967202-pat00056
Is a probability distribution for the first CT image, and E represents an expected value for a given probability distribution.

구체적으로, 상기 판별자(D) 함수는 두 개의 항(term)으로 구성될 수 있으며, 상기 판별자(D) 함수는 이 두 개의 항으로부터 두 데이터에 대한 평균 정보량을 얻어내기 위하여 기댓값을 취하여 엔트로피를 구하고, 전체 정보량을 계산하여 최적화된 판별자(D)를 얻으려 노력한다.Specifically, the discriminator (D) function may be composed of two terms, and the discriminator (D) function calculates the entropy by taking the expected value in order to obtain the average amount of information for the two data from the two terms. , and try to obtain an optimized discriminator (D) by calculating the total amount of information.

보다 구체적으로, 상기 판별자(D) 함수는 두 개의 항(term)으로 구성될 수 있으며, 첫 번째 항인

Figure 112020101967202-pat00057
는, 제2CT영상에 대한 판별자(D)의 판별결과에 대한 기댓값을 최대화되도록 판별자(D)를 학습시키는 부분이다.More specifically, the discriminator (D) function may be composed of two terms, the first term
Figure 112020101967202-pat00057
is a part for learning the discriminator (D) to maximize the expected value of the discrimination result of the discriminator (D) for the 2nd CT image.

또한, 두 번째 항인

Figure 112020101967202-pat00058
는, 가상의 CT영상에 대한 판별자(D)의 판별결과에 대한 기댓값을 최대화 되도록 판별자(D)를 학습시키는 부분으로서, 여기서
Figure 112020101967202-pat00059
는 판별자(D)가 가상의 CT영상을 보고 판별한 0에서 1 사이의 예측 확률 값으로,
Figure 112020101967202-pat00060
가 0에 가까운 값을 생성하도록 상기 판별자(D)를 학습시키는 부분이다.Also, the second term
Figure 112020101967202-pat00058
is a part that learns the discriminator (D) to maximize the expected value of the discriminator (D)'s discrimination result for the virtual CT image, where
Figure 112020101967202-pat00059
is a predicted probability value between 0 and 1 determined by the discriminator (D) by looking at a virtual CT image,
Figure 112020101967202-pat00060
This is the part where the discriminator (D) is trained to generate a value close to 0.

즉, 상기 판별자(D)는, 상기 판별자(D) 함수가 상기 두 개의 항의 합한 정보량을 통하여 상기 생성자(G)가 생성한 가상의 CT영상을 실제 CT촬영된 제2CT영상과 보다 정확하게 판별하도록 학습됨으로써 판별능력이 향상될 수 있다. That is, the discriminator (D) more accurately discriminates the virtual CT image generated by the generator (G) from the 2nd CT image actually taken by the CT scan through the sum of the two terms of the discriminator (D) function. Discrimination ability can be improved by learning to do it.

여기서, 상기 생성자(G) 또는 판별자(D)는, 상기 생성자(G) 및 상기 판별자(D)로부터 출력된 결과값에 따라 상기 생성자(G) 또는 판별자(D)의 파라미터가 반복하여 조정됨으로써 최적화과정을 거치게 된다.Here, the generator (G) or discriminator (D) repeats the parameters of the generator (G) or discriminator (D) according to the result values output from the generator (G) and the discriminator (D). By adjusting, it goes through an optimization process.

정리하면, 상기 판별자(D)의 손실함수로부터 출력된 진위여부에 따라 손실(loss)을 산출하여 생성자(G)의 손실함수에 전달하여 오차를 전파시키고, 상기 오차를 통해 제2CT영상과 상기 가상의 CT영상 간의 차이를 최소화시키도록 생성자(G) 또는 판별자(D)의 신경망의 가중치 또는 파라미터를 갱신함으로써 상기 생성자(G) 및 판별자(D)를 학습시키게 된다.In summary, a loss is calculated according to the authenticity output from the loss function of the discriminator (D) and transmitted to the loss function of the generator (G) to propagate the error, and through the error, the 2nd CT image and the The generator (G) and the discriminator (D) are trained by updating the weights or parameters of the neural network of the generator (G) or discriminator (D) to minimize the difference between the virtual CT images.

즉, 생성자(G) 및 판별자(D)는 손실(Loss)를 최소화하도록 업데이트하면서 학습되게 되며, 이러한 업데이트는 반복 수행되되, 상기 판별자(D)가 상기 생성자(G)가 생성한 가상의 CT영상과 제2CT영상을 구별할 수 없을 때까지 반복 수행됨이 바람직하다. That is, the generator (G) and the discriminator (D) are learned while updating to minimize the loss, and these updates are repeatedly performed, but the discriminator (D) is the virtual value generated by the generator (G). It is preferable to perform iteratively until the CT image and the second CT image cannot be distinguished.

한편, 본 발명은, 상기 생성자(G)의 잡음제거 학습이 보다 효과적으로 수행될 수 있도록 상기 생성자(G) 네트워크의 마지막 레이어에 tanh(kx)를 위치시킬 수 있다.Meanwhile, in the present invention, tanh(kx) may be placed in the last layer of the generator (G) network so that denoising learning of the generator (G) can be performed more effectively.

즉, 상기

Figure 112020101967202-pat00061
가,
Figure 112020101967202-pat00062
의 함수로 설정되게 하여 상기 생성자(G)를 통하여 생성된 영상
Figure 112020101967202-pat00063
도 같은 범위에 있게 할 수 있다.That is, the above
Figure 112020101967202-pat00061
go,
Figure 112020101967202-pat00062
An image generated through the generator (G) by being set as a function of
Figure 112020101967202-pat00063
may also be in the same range.

여기서, 상기

Figure 112020101967202-pat00064
는 함수의 합성을 나타내며, 상기
Figure 112020101967202-pat00065
는 k번째 레이어를 나타내고, 상기 k는 조정되는 파라미터, 즉 상수이며, k>0 이다.here, above
Figure 112020101967202-pat00064
Represents the composition of the function, wherein
Figure 112020101967202-pat00065
denotes a k-th layer, where k is a parameter to be adjusted, that is, a constant, and k>0.

구체적으로,

Figure 112020101967202-pat00066
와 같은 네트워크 구조를 이용하는 경우, 상수 k를 증가시킬수록 tanh(kx)의 그래프가 0 근방에서 기울기가 증가 될 수 있다.Specifically,
Figure 112020101967202-pat00066
In the case of using a network structure such as , as the constant k is increased, the graph of tanh(kx) may have an increased slope near 0.

이때, 상술한 리스케일링을 통하여

Figure 112020101967202-pat00067
값이
Figure 112020101967202-pat00068
로 스케일링 되므로, 잡음을 제거하고자 하는 tissue의
Figure 112020101967202-pat00069
값이 0 근방에 위치되고, 상기
Figure 112020101967202-pat00070
네트워크에서 상수 k를 증가시켜 0 근방의 기울기를 증가시킬 수 있으므로, 생성자(G)에 대한 잡음제거 훈련의 효율성을 향상시킬 수 있는 것이다. At this time, through the above-described rescaling
Figure 112020101967202-pat00067
value
Figure 112020101967202-pat00068
Since it is scaled by , the number of tissues to remove noise
Figure 112020101967202-pat00069
value is located around 0, and the
Figure 112020101967202-pat00070
Since the gradient near 0 can be increased by increasing the constant k in the network, the efficiency of denoising training for the generator (G) can be improved.

이와 같은 효과는 도 4의 그래프를 통해 보다 명확하게 알 수 있다.This effect can be seen more clearly through the graph of FIG. 4 .

도 4의 그래프는, 본 발명의 네트워크 구조에 따라 변환된 tissue 값을 보여주는 그래프이며, tanh(x)위의 파란색 점들은 종래기술인 데이터 정규화방식(즉,

Figure 112020101967202-pat00071
)으로 스케일링 되어진
Figure 112020101967202-pat00072
가 tanh(x)를 이용한 네트워크를 통해 생성된 tissue이며, tanh(3x)위의 빨간색 점들은
Figure 112020101967202-pat00073
가 본 발명에 따른 리스케일링방식(즉,
Figure 112020101967202-pat00074
)을 통해 0근방으로 스케일링되되, tanh(3x)를 이용한 네트워크를 통해 생성된 tissue이다.The graph of Figure 4 is a graph showing tissue values converted according to the network structure of the present invention, and the blue dots on tanh (x) are the prior art data normalization method (ie,
Figure 112020101967202-pat00071
) scaled by
Figure 112020101967202-pat00072
is a tissue generated through a network using tanh(x), and the red dots on tanh(3x) are
Figure 112020101967202-pat00073
Is the rescaling method according to the present invention (ie,
Figure 112020101967202-pat00074
), it is scaled to around 0, but it is a tissue created through a network using tanh (3x).

즉, tanh(3x)의 그래프와 tanh(x)의 그래프를 비교해보면, tanh(3x)에서

Figure 112020101967202-pat00075
값이 0 근방에 위치되는 동시에, tanh(x) 그래프의 기울기보다 tanh(3x) 그래프의 기울기의 변화량이 크므로, 변환된 tissue값의 변화량이 커져 잡음제거훈련이 효율적으로 수행됨을 알 수 있다.That is, comparing the graph of tanh(3x) with the graph of tanh(x), in tanh(3x)
Figure 112020101967202-pat00075
Since the value is located near 0 and the change in the slope of the tanh(3x) graph is greater than the slope of the tanh(x) graph, the change in the converted tissue value increases, which means that noise removal training is performed efficiently.

여기서, 상기 생성자(G) 네트워크에서는, 다양한 딥 러닝 알고리즘이 사용될 수 있으며, 예를 들어, Convolution, ReLU(Rectified Linear Unit), pooling, unplooling 등을 이용될 수 있음은 물론이다.Here, in the generator (G) network, various deep learning algorithms can be used, for example, convolution, Rectified Linear Unit (ReLU), pooling, unplooling, etc. can be used, of course.

한편, 본 발명의 영상처리방법의 효과를 보다 명확히 보여주기 위하여 도5b의 서로 다른 영상처리방법을 이용하여 획득한 복수의 보정영상 도면을 참고한다.On the other hand, in order to show the effect of the image processing method of the present invention more clearly, reference is made to a plurality of corrected image drawings obtained using different image processing methods of FIG. 5B.

여기서, Group1은 종래 저선량 영상이며, Group2는 관전압을 증가시킨 영상을 본 발명의 제2CT영상으로 이용한 영상이고, Group3는 종래의 데이터정규화를 이용하는 훈련방식으로 획득된 영상을 보여준다.Here, Group1 is a conventional low-dose image, Group2 is an image using an image with increased tube voltage as the second CT image of the present invention, and Group3 shows an image obtained by a conventional training method using data normalization.

즉, Group1의 영상은 저선량 영상으로서, 밝기레벨은 높으나 잡음이 많은 문제가 있으며, Group2는 관전압을 증가시켜 밝기레벨이 낮은 레벨이 낮은 영상을 제2CT영상으로 이용하여 보정된 영상도 밝기레벨이 낮은 문제가 있고, Group3는 종래의 데이터 정규화방식을 이용하여 보정함으로서 잡음이 효율적으로 저감되지 못한 문제가 있다.That is, the image of Group 1 is a low-dose image, and the brightness level is high, but there is a problem with a lot of noise. There is a problem, and Group 3 has a problem in that noise is not effectively reduced by correcting using a conventional data normalization method.

그러나 Group4의 영상은, 본 발명의 리스케일링 및 개선된 함수 네트워크를 이용하여 학습된 영상처리방법으로 획득한 보정영상으로서, Group1의 영상 잡음을 효율적으로 저감시켰으며, Group2의 영상에 비하여 높은 밝기레벨을 유지하고, Group3의 영상에 비하여 잡음이 더욱 저감되었음을 확인할 수 있다. However, the image of Group 4 is a corrected image obtained by the image processing method learned using the rescaling and improved function network of the present invention, and the image noise of Group 1 is effectively reduced, and the brightness level is higher than that of the image of Group 2. is maintained, and it can be confirmed that the noise is further reduced compared to the image of Group3.

즉, 본 발명의 리스케일링 및 개선된 생성자(G) 및 판별자(D) 네트워크를 이용하여 학습된 영상처리방법은 저선량 영상과 같은 밝기레벨을 유지하면서 잡음을 보다 효과적으로 제거할 수 있다.That is, the image processing method learned using the rescaling and improved generator (G) and discriminator (D) network of the present invention can remove noise more effectively while maintaining the same brightness level as a low-dose image.

한편, 상술한 각 단계를 통해 학습 된 딥 러닝 네트워크는 기존의 CT장비에 적용될 수 있다. Meanwhile, the deep learning network learned through each step described above can be applied to existing CT equipment.

즉, 도 2에 도시된 바와 같이, 환자에게 보다 적은 방사선량을 노출시킴으로써 획득한 저선량 CT영상을 학습된 영상처리방법 통하여 변환시킴으로써 밝기레벨은 유지하면서 잡음이 제거된 가상의 표준선량영상을 출력하여 CT장치의 사용자가 보다 쉽게 CT영상을 판독할 수 있도록 할 수 있다. That is, as shown in FIG. 2, by converting the low-dose CT image obtained by exposing the patient to a smaller radiation dose through the learned image processing method, a virtual standard-dose image from which noise is removed while maintaining the brightness level is output, A user of a CT device can more easily read a CT image.

또한, 본 발명은 상술한 프로그램을 저장하는 메모리 및 프로세서를 포함하는 영상처리장치로서, 상기 프로그램들이 상기 프로세서에 의해 실행될 때 상기와 같은 영상처리방법을 수행하는 것을 특징으로 하는 영상처리장치를 개시할 수 있다.In addition, the present invention discloses an image processing device including a memory and a processor for storing the above-described programs, wherein the image processing method is performed when the programs are executed by the processor. can

상기 프로세서는 그 종류에 제한되지 않으며, 예를 들어, 범용프로세서, 컨트롤러, 중앙처리유닛(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP) 등 일 수 있다.The processor is not limited to its type, and may be, for example, a general-purpose processor, a controller, a central processing unit (CPU), a microprocessor, a digital signal processor (DSP), and the like.

또한, 영상처리방법의 각 단계는 컴퓨팅 장치에 의하여 수행될 수 있고, 상기 방법의 각 단계는 컴퓨팅 장치의 프로세서에 의하여 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다.In addition, each step of the image processing method may be performed by a computing device, and each step of the method may be implemented as one or more instructions executed by a processor of the computing device.

여기서 상기 방법에 포함되는 모든 단계는 하나의 물리적인 컴퓨팅장치 또는 복수의 물리적인 컴퓨팅장치에 의하여 분산되어 실행될 수 있음은 물론이다. Of course, all steps included in the method may be distributed and executed by one physical computing device or a plurality of physical computing devices.

또한, 상기 컴퓨팅장치는 컴퓨터 프로그램들을 저장하는 컴퓨터 판독가능 저장매체를 추가로 제공할 수 있다.In addition, the computing device may further provide a computer readable storage medium for storing computer programs.

상기 메모리 및 컴퓨터 판독가능 저장매체는 그 종류에 제한되지 않으며, 예를 들어, RAM, ROPM, PROM,, EPROM, 자기디스크, 테이프, 비일시적 저장매체 등일 수 있다.The memory and the computer readable storage medium are not limited in their types, and may be, for example, RAM, ROPM, PROM, EPROM, magnetic disk, tape, or non-transitory storage medium.

이상은 본 발명에 의해 구현될 수 있는 바람직한 실시예의 일부에 관하여 설명한 것에 불과하므로, 주지된 바와 같이 본 발명의 범위는 위의 실시예에 한정되어 해석되어서는 안 될 것이며, 위에서 설명된 본 발명의 기술적 사상과 그 근본을 함께하는 기술적 사상은 모두 본 발명의 범위에 포함된다고 할 것이다.Since the above has only been described with respect to some of the preferred embodiments that can be implemented by the present invention, as noted, the scope of the present invention should not be construed as being limited to the above embodiments, and the scope of the present invention described above It will be said that the technical idea and the technical idea accompanying the root are all included in the scope of the present invention.

S10 : 영상 변환단계 S20 : 영상 판별단계
S30 : 학습단계
S10: Image conversion step S20: Image discrimination step
S30: learning step

Claims (10)

생성적 적대 신경망(Generative Adversarial Networks, GAN) 기반의 영상처리방법으로서,
생성자(G)에 CT장치로 촬영된 제1CT영상이 입력됨에 따라, 상기 제1CT영상에서 잡음을 제거하여 가상의 CT영상으로 변환하여 출력하는 영상변환단계(S10)와;
판별자(D)에 상기 가상의 CT영상 또는 CT장치로 잡음이 제거되도록 촬영된 제2CT영상이 입력됨에 따라 진위여부를 판별하는 영상판별단계(S20)와;
상기 판별자(D)로부터 출력된 진위여부에 따라 상기 생성자(G) 또는 상기 판별자(D)의 파라미터를 조정하는 학습단계(S30)를 포함하며,
상기 생성자(G)는,
Figure 112022074563924-pat00109
의 네트워크를 가지며,
여기서, 상기
Figure 112022074563924-pat00110
은 상기 제1CT영상이고, 상기
Figure 112022074563924-pat00111
은 상기 생성자(G)가 상기 제1CT영상으로부터 변환한 상기 가상의 CT영상이며, 상기 λ는 조정되는 파라미터이고, 상기
Figure 112022074563924-pat00112
는 상기 가상의 CT영상에 대한 상기 판별자(D)의 판별결과이며, 상기
Figure 112022074563924-pat00113
는 상기 제1CT영상에 대한 확률분포를 나타내고, E는 주어진 확률분포에 대한 기댓값을 나타내며,
상기
Figure 112022074563924-pat00114
는,
상기
Figure 112022074563924-pat00115
의 tissue 값이 0이 되도록
Figure 112022074563924-pat00116
로 리스케일링되되,
여기서, 상기
Figure 112022074563924-pat00117
는 리스케일링 된 상기 제1CT영상이고, 상기
Figure 112022074563924-pat00118
는 평균 HU(Hounsfield Unit)값이며, 상기 c는 CT의 최댓값의 역수인 것을 특징으로 하는 영상처리방법.
As an image processing method based on generative adversarial networks (GAN),
An image conversion step (S10) of converting and outputting a virtual CT image by removing noise from the first CT image as the first CT image captured by the CT device is input to the generator (G);
An image discrimination step (S20) of determining authenticity as the virtual CT image or the 2nd CT image captured by the CT device is input to the discriminator (D);
And a learning step (S30) of adjusting parameters of the generator (G) or the discriminator (D) according to the authenticity output from the discriminator (D),
The constructor (G),
Figure 112022074563924-pat00109
has a network of
here, above
Figure 112022074563924-pat00110
is the first CT image, and
Figure 112022074563924-pat00111
is the virtual CT image converted from the 1st CT image by the creator (G), λ is a parameter to be adjusted,
Figure 112022074563924-pat00112
Is the discrimination result of the discriminator (D) for the virtual CT image,
Figure 112022074563924-pat00113
Represents a probability distribution for the 1st CT image, E represents an expected value for a given probability distribution,
remind
Figure 112022074563924-pat00114
Is,
remind
Figure 112022074563924-pat00115
so that the tissue value of is 0
Figure 112022074563924-pat00116
is rescaled to
here, above
Figure 112022074563924-pat00117
is the rescaled 1 CT image,
Figure 112022074563924-pat00118
Is an average Hounsfield Unit (HU) value, and c is an image processing method characterized in that the reciprocal of the maximum value of CT.
청구항 1에 있어서,
상기 제1CT영상과 상기 제2CT영상은 짝이 맞지 않는 것을 특징으로 하는 영상처리방법.
The method of claim 1,
The image processing method, characterized in that the first CT image and the second CT image do not match.
청구항 1에 있어서,
상기 제2CT영상의 CT촬영에서의 관전류(TC2)는, 상기 제1CT영상 CT촬영에서의 관전류(TC1)보다 큰 것을 특징으로 하는 영상처리방법.
The method of claim 1,
A tube current (TC2) in the CT scan of the second CT image is greater than a tube current (TC1) in the CT scan of the first CT image.
청구항 3에 있어서,
상기 제2CT영상의 CT촬영에서의 관전압(TV2)은, 상기 제1CT영상 CT촬영에서의 관전압(TV1)과 같은 것을 특징으로 하는 영상처리방법.
The method of claim 3,
The tube voltage (TV2) in the CT scan of the second CT image is the same as the tube voltage (TV1) in the CT scan of the first CT image.
삭제delete 삭제delete 청구항 1에 있어서,
상기 생성자(G)는 리스케일링된 상기 제1CT영상인 상기
Figure 112022074563924-pat00086
으로부터 가상의 CT영상인
Figure 112022074563924-pat00087
를 변환하되,
상기
Figure 112022074563924-pat00088
는,
Figure 112022074563924-pat00089
의 함수를 가지고,
여기서, 상기
Figure 112022074563924-pat00090
는 함수의 합성을 나타내며, 상기
Figure 112022074563924-pat00091
는 k번째 레이어를 나타내고, 상기 k는 조정되는 파라미터이며, k>0인 것을 특징으로 하는 영상처리방법.
The method of claim 1,
The generator (G) is the rescaled 1CT image
Figure 112022074563924-pat00086
virtual CT image from
Figure 112022074563924-pat00087
convert,
remind
Figure 112022074563924-pat00088
Is,
Figure 112022074563924-pat00089
With a function of
here, above
Figure 112022074563924-pat00090
Represents the composition of the function, wherein
Figure 112022074563924-pat00091
represents a k-th layer, k is a parameter to be adjusted, and k>0.
청구항 1에 있어서,
상기 판별자(D)는,
Figure 112020101967202-pat00092
의 함수를 가지며,
여기서, 상기
Figure 112020101967202-pat00093
는 상기 제2CT영상이며, 상기
Figure 112020101967202-pat00094
는 상기 가상의 CT영상에 대한 상기 판별자(D)의 판별결과이고, 상기
Figure 112020101967202-pat00095
는 상기 제2CT영상에 대한 상기 판별자(D)의 판별결과이며, 상기
Figure 112020101967202-pat00096
는 상기 제2CT영상에 대한 확률분포를 나타내고, 상기
Figure 112020101967202-pat00097
는 상기 제1CT영상에 대한 확률분포이며, E는 주어진 확률분포에 대한 기댓값을 나타내는 것을 특징으로 하는 영상처리방법.
The method of claim 1,
The discriminator (D),
Figure 112020101967202-pat00092
has a function of
here, above
Figure 112020101967202-pat00093
is the second CT image, and
Figure 112020101967202-pat00094
Is the discrimination result of the discriminator (D) for the virtual CT image,
Figure 112020101967202-pat00095
Is the discrimination result of the discriminator (D) for the 2nd CT image,
Figure 112020101967202-pat00096
Represents a probability distribution for the second CT image,
Figure 112020101967202-pat00097
is a probability distribution for the first CT image, and E is an image processing method characterized in that it represents an expected value for a given probability distribution.
청구항 8에 있어서,
상기
Figure 112020101967202-pat00098
는,
상기
Figure 112020101967202-pat00099
의 tissue의 값이 0이 되도록
Figure 112020101967202-pat00100
로 리스케일링되되,
여기서, 상기
Figure 112020101967202-pat00101
는 리스케일링 된 상기 제2CT영상이고, 상기
Figure 112020101967202-pat00102
는 평균 HU(Hounsfield Unit)값이며, 상기 c는 CT의 최댓값의 역수인 것을 특징으로 하는 영상처리방법.
The method of claim 8,
remind
Figure 112020101967202-pat00098
Is,
remind
Figure 112020101967202-pat00099
so that the value of tissue in is 0
Figure 112020101967202-pat00100
is rescaled to
here, above
Figure 112020101967202-pat00101
is the rescaled 2 CT image,
Figure 112020101967202-pat00102
Is an average Hounsfield Unit (HU) value, and c is an image processing method characterized in that the reciprocal of the maximum value of CT.
프로그램을 저장하는 메모리 및 프로세서를 포함하는 영상처리장치로서,
상기 프로그램들이 상기 프로세서에 의해 실행될 때 청구항 1 내지 청구항 4, 청구항 7 내지 9 중 어느 하나의 항의 영상처리방법을 수행하는 것을 특징으로 하는 영상처리장치.
An image processing apparatus including a memory and a processor for storing a program,
An image processing device characterized in that performing the image processing method of any one of claims 1 to 4 and claims 7 to 9 when the programs are executed by the processor.
KR1020200124122A 2020-09-24 2020-09-24 Image Processing Method and Image Processing Device using the same KR102472464B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200124122A KR102472464B1 (en) 2020-09-24 2020-09-24 Image Processing Method and Image Processing Device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200124122A KR102472464B1 (en) 2020-09-24 2020-09-24 Image Processing Method and Image Processing Device using the same

Publications (2)

Publication Number Publication Date
KR20220040872A KR20220040872A (en) 2022-03-31
KR102472464B1 true KR102472464B1 (en) 2022-11-29

Family

ID=80935041

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200124122A KR102472464B1 (en) 2020-09-24 2020-09-24 Image Processing Method and Image Processing Device using the same

Country Status (1)

Country Link
KR (1) KR102472464B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230166023A (en) * 2022-05-27 2023-12-06 고려대학교 산학협력단 Method and apparatus for providing ar images
KR102635783B1 (en) * 2022-07-07 2024-02-08 연세대학교 원주산학협력단 Geometry Mobile CT Scanner Scan System and Method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274108A (en) * 2009-05-28 2010-12-09 Toshiba Corp X-ray computerized tomographic apparatus

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190139580A (en) * 2018-06-08 2019-12-18 연세대학교 산학협력단 high-definition heart image producing apparatus using deep learning and method therefor
KR102220029B1 (en) * 2018-10-12 2021-02-25 한국과학기술원 Method for processing unmatched low dose x-ray computed tomography image using artificial neural network and apparatus therefor

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010274108A (en) * 2009-05-28 2010-12-09 Toshiba Corp X-ray computerized tomographic apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
H.S. Park, J. Baek, S. K. You, J. K. Choi and J. K. Seo, "Unpaired Image Denoising Using a Generative Adversarial Network in X-Ray CT," in IEEE Access, vol. 7, pp. 110414-110425, 2019, 2019.08.09.*

Also Published As

Publication number Publication date
KR20220040872A (en) 2022-03-31

Similar Documents

Publication Publication Date Title
CN110047128B (en) Method and system for 3D reconstruction of X-ray CT volumes and segmentation masks from several X-ray radiographs
Zhang et al. A hybrid metal artifact reduction algorithm for x‐ray CT
Wang et al. Metal artifact reduction in CT using fusion based prior image
US8611626B2 (en) System and methods for fast implementation of equally-sloped tomography
JP2020168352A (en) Medical apparatus and program
CN111429379B (en) Low-dose CT image denoising method and system based on self-supervision learning
CN107958471B (en) CT imaging method and device based on undersampled data, CT equipment and storage medium
KR102472464B1 (en) Image Processing Method and Image Processing Device using the same
CN101129266A (en) X-ray image processing system
CN107533755A (en) For improving the apparatus and method of medical image quality
CN111353958A (en) Image processing method, device and system
CN110599530B (en) MVCT image texture enhancement method based on double regular constraints
JP5223266B2 (en) X-ray imaging system
Toftegaard et al. Moving metal artifact reduction in cone‐beam CT scans with implanted cylindrical gold markers
WO2020031515A1 (en) Image processing device, image processing method, and program
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
WO2022045210A1 (en) Image processing device, image processing method, learning device, learning method, and program
CN116685999A (en) Method and system for flexible denoising of images using a clean feature representation domain
Gottschalk et al. Deep learning based metal inpainting in the projection domain: Initial results
KR102342954B1 (en) Apparatus and method for removing metal artifact of computer tomography image based on artificial intelligence
KR20220169134A (en) Apparauts, system, method and program for deciphering tomography image of common bile duct stone using artificial intelligence
Zhang et al. Metal artifact reduction based on the combined prior image
Zhu et al. CT metal artifact correction assisted by the deep learning-based metal segmentation on the projection domain
CN113168721A (en) System for reconstructing an image of an object
Nakazeko et al. Estimation of patient’s angle from skull radiographs using deep learning

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant