KR20240002294A - Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof - Google Patents

Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof Download PDF

Info

Publication number
KR20240002294A
KR20240002294A KR1020220079324A KR20220079324A KR20240002294A KR 20240002294 A KR20240002294 A KR 20240002294A KR 1020220079324 A KR1020220079324 A KR 1020220079324A KR 20220079324 A KR20220079324 A KR 20220079324A KR 20240002294 A KR20240002294 A KR 20240002294A
Authority
KR
South Korea
Prior art keywords
sinogram
contrast agent
group
value
probability value
Prior art date
Application number
KR1020220079324A
Other languages
Korean (ko)
Other versions
KR102654735B1 (en
Inventor
이옥균
백수민
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020220079324A priority Critical patent/KR102654735B1/en
Publication of KR20240002294A publication Critical patent/KR20240002294A/en
Application granted granted Critical
Publication of KR102654735B1 publication Critical patent/KR102654735B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/42Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4241Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using energy resolving detectors, e.g. photon counting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명은 포톤카운팅 CT에서의 나노입자 조영제 영역 검출 장치 및 그 방법에 관한 것이다. 본 발명에 따르면, 나노입자 조영제 영역 검출 장치는 복수의 보정용 팬텀에 조사된 광선의 측정값을 이용하여 학습 데이터를 생성하고, 생성된 학습 데이터를 광선의 조영제 영역 통과 유무에 따라 제1 그룹과 제2 그룹으로 분류한 다음, 제1 그룹에 대한 제1 확률값과 제2 그룹에 대한 확률값을 산출하는 전처리부, 나노입자 조영제 영역을 검출하고자 하는 원본 사이노그램을 입력받는 영상 입력부, 획득한 원본 사이노그램에 포함된 복수의 픽셀을 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘에 입력하여 해당되는 픽셀에 대한 제1 사후 확률값 및 제2 사후 확률값을 추정하는 확률 추정부, 제1 사후 확률값을 이용하여 제1 사이노그램을 생성하고, 제2 사후 확률값을 이용하여 제2 사이노그램을 생성한 다음, 상기 생성된 제1 사이노그램 및 제2 사이노그램을 역투영(Back projection)하여 역투영 이미지로 변환시키는 이미지 변환부, 그리고 제1 사이노그램을 변환시켜 생성된 제1 역투영 이미지와 상기 제2 사이노그램을 변환시켜 생성된 제2 역투영 이미지를 상호 비교하여 나노입자 조영제 영역을 검출하는 제어부를 포함한다. The present invention relates to an apparatus and method for detecting nanoparticle contrast agent areas in photon counting CT. According to the present invention, the nanoparticle contrast agent area detection device generates learning data using measured values of light irradiated to a plurality of correction phantoms, and divides the generated learning data into first and second groups according to whether or not the light rays pass through the contrast agent area. After classifying into 2 groups, a pre-processing unit that calculates the first probability value for the first group and the probability value for the second group, an image input unit that receives the original sinogram to detect the nanoparticle contrast agent area, and the obtained original. A probability estimation unit, which inputs a plurality of pixels included in the nogram into the K-Nearest Neighbor (K-NN) algorithm to estimate the first and second posterior probability values for the corresponding pixel, 1 Generate a first sinogram using a posterior probability value, generate a second sinogram using a second posterior probability value, and then backproject the generated first sinogram and second sinogram ( an image conversion unit that converts the back projection image into a back projection image, and compares the first back projection image generated by converting the first sinogram and the second back projection image generated by converting the second sinogram. It includes a control unit that detects the nanoparticle contrast agent area.

Description

포톤카운팅 CT에서의 나노입자 조영제 영역 검출 장치 및 그 방법{Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof}Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof}

본 발명은 포톤카운팅 CT에서의 나노입자 조영제 영역 검출 장치 및 그 방법에 관한 것으로서, 더욱 상세하게 설명하면 광자계수형 검출기(photon counting detector)로부터 획득한 사이노그램을 K-NN 알고리즘에 입력하여 우도 분류를 수행하고, 우도 분류를 통해 획득한 복수의 사이노그램을 이용하여 나노입자 조영제 영역을 검출하는 나노입자 조영제 영역 검출 장치 및 그 방법에 관한 것이다. The present invention relates to an apparatus and method for detecting the nanoparticle contrast agent area in photon counting CT. To be described in more detail, the sinogram obtained from a photon counting detector is input into the K-NN algorithm to determine the likelihood. The present invention relates to a nanoparticle contrast agent area detection device and method for performing classification and detecting the nanoparticle contrast agent area using a plurality of sinograms obtained through likelihood classification.

컴퓨터 단층 촬영검사(Computed Tomography, CT)는 X-선을 인체에 투과시켜 그 흡수차이를 컴퓨터로 재구성하여 인체의 단면영상(Cross-Sectional Image)이나 3차원적인 영상(3-dimensional Image)을 얻는 영상진단법이다. Computed Tomography (CT) is a method of transmitting X-rays through the human body and reconstructing the difference in absorption with a computer to obtain a cross-sectional image or 3-dimensional image of the human body. It is an imaging diagnostic method.

컴퓨터 단층 촬영검사(CT)는 아주 작은 인체조직의 밀도차이도 구별할 수 있어 5㎜크기 정도의 작은 병소도 진단이 가능하며 인체의 어느 부위에나 검사의 적용이 가능하다. Computed tomography (CT) can distinguish even the smallest differences in the density of human tissue, making it possible to diagnose lesions as small as 5 mm in size, and the test can be applied to any part of the human body.

최근에는 좀 더 선명한 3차원의 진단 영상 이미지를 제공할 수 있도록 광자 계수 검출기(PCD)를 사용한 컴퓨터 단층 촬영검사(CT)가 이용되고 있으며, 그 중에서도 나노입자 조영제를 이용한 기능적 및 분자적 컴퓨터 단층 촬영검사(CT)가 이용되고 있다. Recently, computed tomography (CT) using a photon counting detector (PCD) has been used to provide clearer three-dimensional diagnostic imaging images, and among them, functional and molecular computed tomography using nanoparticle contrast agents. Testing (CT) is being used.

나노입자 조영제는 표적화된 세포 또는 조직에 축적된다. 조영제와 같은 무거운 요소는 임상 에너지 범위에서 K 엣지(K-edge)를 갖는다. K 엣지보다 큰 X선 에너지를 갖는 광자는 광전 흡수를 일으켜 감쇠 곡선을 감자기 증가시킬 수 있다. 따라서, 광자 계수 검출기(PCD)를 사용한 컴퓨터 단층 촬영검사(CT)는 광자 에너지 식별을 통해 조영제 식별이 가능한 효과를 지닌다. Nanoparticle contrast agents accumulate in targeted cells or tissues. Heavy elements such as contrast agents have a K-edge in the clinical energy range. Photons with an X-ray energy greater than the K edge can cause photoelectric absorption, increasing the attenuation curve. Therefore, computed tomography (CT) using a photon counting detector (PCD) has the effect of enabling contrast agent identification through photon energy identification.

그러나, 광자 계수 검출기(PCD)를 통해 출력된 bin-wise 이미지는 신호 대 잡음비(Signal to Noise Ratio, SNR)가 낮으므로 X선 선량 수준에 민감하다. 따라서, bin-wise 이미지를 기반한 방법은 조영제의 농도가 낮아질수록 추정치에서 큰 노이즈가 발생된다. However, the bin-wise image output through the photon counting detector (PCD) has a low signal to noise ratio (SNR) and is therefore sensitive to the X-ray dose level. Therefore, methods based on bin-wise images generate greater noise in estimates as the concentration of contrast agent decreases.

또한, 제약조건이 있는 K-edge 이미징 기반의 최대 우도 방법을 구현하기 위해서는 정확한 시스템 모델링을 필요로 하며, 비선형 최적화 문제를 풀어야 하기에 상대적으로 계산 효율성이 떨어지므로 나노입자 조영제 분포 영상에서 타켓을 구분하기 위한 최적의 임계값을 찾는데 어려움이 있었다. In addition, to implement the maximum likelihood method based on constrained K-edge imaging, accurate system modeling is required, and computational efficiency is relatively low due to the need to solve a nonlinear optimization problem, so targets are distinguished from nanoparticle contrast agent distribution images. There was difficulty in finding the optimal threshold for this.

본 발명의 배경이 되는 기술은 한국등록특허 제 10-1245536호(2013.03.21. 공고)에 개시되어 있다.The technology behind the present invention is disclosed in Korean Patent No. 10-1245536 (announced on March 21, 2013).

이와 같이 본 발명에 따르면, 설명하면 광자계수형 검출기(photon counting detector)로부터 획득한 사이노그램을 K-NN 알고리즘에 입력하여 우도 분류를 수행하고, 우도 분류를 통해 획득한 복수의 사이노그램을 이용하여 나노입자 조영제 영역을 검출하는 나노입자 조영제 영역 검출 장치 및 그 방법을 제공하기 위한 것이다.In this way, according to the present invention, a sinogram obtained from a photon counting detector is input into the K-NN algorithm to perform likelihood classification, and a plurality of sinograms obtained through likelihood classification are The object is to provide a nanoparticle contrast agent area detection device and method for detecting the nanoparticle contrast agent area using the same.

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따르면 포톤카운팅 CT에서의 나노입자 조영제 영역 검출 장치는 복수의 보정용 팬텀에 조사된 광선의 측정값을 이용하여 학습 데이터를 생성하고, 생성된 학습 데이터를 광선의 조영제 영역 통과 유무에 따라 제1 그룹과 제2 그룹으로 분류한 다음, 상기 제1 그룹에 대한 제1 확률값과 제2 그룹에 대한 확률값을 산출하는 전처리부, 나노입자 조영제 영역을 검출하고자 하는 원본 사이노그램을 입력받는 영상 입력부, 상기 획득한 원본 사이노그램에 포함된 복수의 픽셀을 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘에 입력하여 해당되는 픽셀에 대한 제1 사후 확률값 및 제2 사후 확률값을 추정하는 확률 추정부, 상기 제1 사후 확률값을 이용하여 제1 사이노그램을 생성하고, 상기 제2 사후 확률값을 이용하여 제2 사이노그램을 생성한 다음, 상기 생성된 제1 사이노그램 및 제2 사이노그램을 역투영(Back projection)하여 역투영 이미지로 변환시키는 이미지 변환부, 그리고 상기 제1 사이노그램을 변환시켜 생성된 제1 역투영 이미지와 상기 제2 사이노그램을 변환시켜 생성된 제2 역투영 이미지를 상호 비교하여 나노입자 조영제 영역을 검출하는 제어부를 포함한다. According to an embodiment of the present invention to achieve this technical task, a nanoparticle contrast agent area detection device in photon counting CT generates learning data using measured values of light irradiated to a plurality of correction phantoms, and uses the generated learning data. A pre-processing unit that classifies light into a first group and a second group according to whether or not it passes through the contrast agent area, and then calculates a first probability value for the first group and a probability value for the second group, and a preprocessor to detect the nanoparticle contrast agent area. An image input unit that receives the original sinogram, inputs a plurality of pixels included in the obtained original sinogram into the K-Nearest Neighbor (K-NN, K-Nearest Neighbor) algorithm to create a first image for the corresponding pixel. A probability estimator for estimating a posterior probability value and a second posterior probability value, generating a first sinogram using the first posterior probability value, and generating a second sinogram using the second posterior probability value, An image conversion unit that converts the generated first sinogram and the second sinogram into a back-projection image by back projection, and a first back-projection image generated by converting the first sinogram and the It includes a control unit that detects the nanoparticle contrast agent area by comparing the second back-projection image generated by converting the second sinogram.

상기 전처리부는, 광자계수형 검출기(photon counting detector)에 의해 검출된 측정값을 이용하여 조사된 광선이 상기 나노입자 조영제가 존재하는 영역을 통과하면, 해당되는 학습 데이터를 제1 그룹으로 분류하고, 상기 조사된 광선이 나노입자 조영제가 존재하지 않는 영역을 통과하면, 해당되는 학습 데이터를 제2 그룹으로 분류할 수 있다. The preprocessor classifies the corresponding learning data into a first group when the irradiated light ray passes through the area where the nanoparticle contrast agent is present using the measurement value detected by a photon counting detector, When the irradiated light passes through an area where the nanoparticle contrast agent does not exist, the corresponding learning data can be classified into a second group.

상기 확률 추정부는, 상기 제1 그룹과 상기 제2 그룹으로 분류된 학습 데이터와, 제1 확률값 및 제2 확률값, 그리고 상기 원본 사이노그램의 광자수를 상기 K-최근접 이웃(K-NN) 알고리즘의 입력 데이터로 할 수 있다. The probability estimation unit combines the training data classified into the first group and the second group, the first probability value and the second probability value, and the number of photons of the original sinogram into the K-nearest neighbor (K-NN). This can be done with the input data of the algorithm.

상기 확률 추정부는, 상기 K-최근접 이웃(K-NN) 알고리즘을 이용하여 입력되는 사이노그램의 모든 픽셀에 대한 각각의 제1사후 확률값 및 제2 사후 확률값을 획득하며, 상기 획득한 제1 사후 확률값과 제2 사후 확률값의 합은 1로 설정될 수 있다. The probability estimation unit acquires first posterior probability values and second posterior probability values for all pixels of the input sinogram using the K-nearest neighbor (K-NN) algorithm, and the obtained first posterior probability value The sum of the posterior probability value and the second posterior probability value may be set to 1.

상기 확률 추정부는, 사후 확률값에 부스팅 알고리즘을 적용하여 제1 사후 확률값 또는 제2 사후 확률값을 0 또는 1의 극단값으로 변경하여 출력할 수 있다. The probability estimator may apply a boosting algorithm to the posterior probability value to change the first posterior probability value or the second posterior probability value to an extreme value of 0 or 1 and output it.

상기 이미지 변환부는, 상기 제1 사후 확률값 또는 제2 사후 확률값을 하기의 수학식에 대입하여 사이노그램 포인트값을 획득할 수 있다. The image conversion unit may obtain a sinogram point value by substituting the first posterior probability value or the second posterior probability value into the following equation.

여기서, 는 k그룹의 j번째 사이노그램 픽셀을 나타내고, k는 그룹별 인덱스(1 또는 2)를 나타내며, 는 제1 그룹 또는 제2 그룹을 나타내고, 는 j번째 픽셀의 벡터값을 나타내며, 는 j번째 픽셀의 벡터값이 제1 그룹 또는 제2 그룹에 속하는 확률을 나타내고, 는 j번째 픽셀의 벡터값이 제1 그룹 또는 제2 그룹에 속하는 사후 확률을 나타낸다. here, represents the jth sinogram pixel of k group, k represents the index (1 or 2) for each group, represents the first group or the second group, represents the vector value of the jth pixel, represents the probability that the vector value of the jth pixel belongs to the first group or the second group, represents the posterior probability that the vector value of the jth pixel belongs to the first group or the second group.

상기 이미지 변환부는, 하기의 수학식을 이용하여 역투영 이미지를 생성할 수 있다. The image conversion unit can generate a back-projection image using the following equation.

여기서, 는 역투영 연산자를 나타내고, 에 속하며 k 그룹에 대한 역투영 이미지를 나타내며, 는 열과 행의 개수가 각각 N 인 2차원 영상을 나타낸다. here, represents the backprojection operator, Is belongs to and represents the backprojection image for k groups, represents a two-dimensional image with N columns and N rows.

상기 이미지 변환부는, 상기 제1 사이노그램 및 제2 사이노그램을 역투영 이미지로 변환하기 전에 중앙값 필터 또는 전체 변형 기반 잡음 제거 알고리즘을 적용하여 상기 제1 사이노그램 및 제2 사이노그램에 포함된 잡음을 제거할 수 있다. The image conversion unit applies a median filter or a total transformation-based noise removal algorithm to the first sinogram and the second sinogram before converting the first sinogram and the second sinogram into a back-projection image. The included noise can be removed.

상기 제어부는, 상기 제1 역투영 이미지에 포함된 n번째 픽셀과 상기 제2 역투영 이미지에 포함된 n번째 픽셀을 비교한 다음, 상기 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 크면 해당되는 픽셀에 1값을 부여하고, 상기 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 작으면 해당되는 픽셀에 0값을 부여할 수 있다. The control unit compares the n-th pixel included in the first back-projection image with the n-th pixel included in the second back-projection image, and then the n-th pixel value included in the first back-projection image is the n-th pixel included in the first back-projection image. 2 If it is greater than the n-th pixel value included in the back-projection image, a value of 1 is assigned to the corresponding pixel, and the n-th pixel value included in the first back-projection image is the n-th pixel value included in the second back-projection image. If it is smaller than that, a value of 0 can be assigned to the corresponding pixel.

상기 제어부는, 픽셀 값이 1에 해당하는 영역을 나노입자 조영제 영역으로 검출할 수 있다. The control unit may detect the area where the pixel value is 1 as the nanoparticle contrast agent area.

또한, 본 발명의 실시예에 따르면 나노입자 조영제 영역 검출 장치를 이용한 나노입자 조영제 영역 검출 방법은 복수의 보정용 팬텀에 조사된 광선의 측정값을 이용하여 학습 데이터를 생성하고, 생성된 학습 데이터를 광선의 조영제 영역 통과 유무에 따라 제1 그룹과 제2 그룹으로 분류한 다음, 상기 제1 그룹에 대한 제1 확률값과 제2 그룹에 대한 확률값을 산출하는 단계, 나노입자 조영제 영역을 검출하고자 하는 원본 사이노그램을 입력받는 단계, 상기 획득한 원본 사이노그램에 포함된 복수의 픽셀을 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘에 입력하여 해당되는 픽셀에 대한 제1 사후 확률값 및 제2 사후 확률값을 추정하는 단계, 상기 제1 사후 확률값을 이용하여 제1 사이노그램을 생성하고, 상기 제2 사후 확률값을 이용하여 제2 사이노그램을 생성한 다음, 상기 생성된 제1 사이노그램 및 제2 사이노그램을 역투영(Back projection)하여 역투영 이미지로 변환시키는 단계, 그리고 상기 제1 사이노그램을 변환시켜 생성된 제1 역투영 이미지와 상기 제2 사이노그램을 변환시켜 생성된 제2 역투영 이미지를 상호 비교하여 나노입자 조영제 영역을 검출하는 단계를 포함한다. In addition, according to an embodiment of the present invention, the nanoparticle contrast agent area detection method using a nanoparticle contrast agent area detection device generates learning data using measured values of light irradiated to a plurality of correction phantoms, and generates learning data using the light beam. Classifying into a first group and a second group according to whether or not the contrast agent passes through the region, then calculating a first probability value for the first group and a probability value for the second group, between the originals for detecting the nanoparticle contrast agent region. Inputting a nogram, inputting a plurality of pixels included in the obtained original sinogram into the K-Nearest Neighbor (K-NN, K-Nearest Neighbor) algorithm to obtain a first posterior probability value for the corresponding pixel and Estimating a second posterior probability value, generating a first sinogram using the first posterior probability value, generating a second sinogram using the second posterior probability value, and then generating the first sinogram Converting the nogram and the second sinogram into a back-projection image by back projection, and converting the first back-projection image and the second sinogram generated by converting the first sinogram. It includes the step of detecting the nanoparticle contrast agent area by comparing the second back-projected images generated by each other.

이와 같이 본 발명에 따르면, 최대우도 분류법에 근거하여 이진화를 수행하므로 별도의 임계값을 정할 필요가 없어 비선형 최적화 방법보다 계산 효율을 증대시킬 수 있고, 사이노그램을 이용하므로 빔 경화 형상 또는 부분 볼륨 효과에 대한 영향을 덜 받을 수 있다. In this way, according to the present invention, since binarization is performed based on the maximum likelihood classification method, there is no need to set a separate threshold, and calculation efficiency can be increased compared to the nonlinear optimization method, and since a sinogram is used, the beam hardening shape or partial volume You may be less affected by the effect.

또한, 본 발명에 따른 KNN 알고리즘을 이용하므로 학습 모델을 학습시키는데 소요되는 시간을 절약할 수 있으며, 조영제 물질의 특성을 이용하여 병변의 위치만을 식별해낸 영상을 획득하여 제공함으로써 암 연구와 영상 진단에 기여할 수 있다. In addition, by using the KNN algorithm according to the present invention, the time required to train the learning model can be saved, and by using the characteristics of the contrast agent material to obtain and provide images that identify only the location of the lesion, it can be used for cancer research and imaging diagnosis. You can contribute.

도 1은 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치에 대한 구성도이다.
도 2는 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치를 이용한 나노입자 조영제 영역 검출 방법을 설명하기 위한 순서도이다.
도 3은 에너지 변화에 따른 물, 뼈, 조영제(Au)에 대한 선형 감쇄 계수를 나타낸 그래프이다.
도 4는 도 2에 도시된 S210단계에서 제1 그룹과 제2 그룹으로 분류된 학습데이터를 생성하는 방법을 설명하기 위한 예시도이다.
도 5는 도 2에 도시된 S230단계를 설명하기 위한 예시도이다.
도 6은 도 2에 도시된 S240단계를 설명하게 위한 예시도이다.
도 7은 도 2에 도시된 S250단계를 설명하기 위한 예시도이다.
도 8은 도 2에 도시된 S260단계를 설명하기 위한 예시도이다.
도 9는 도 2에 도시된 S270단계를 설명한 예시도이다.
1 is a configuration diagram of a device for detecting a nanoparticle contrast agent area according to an embodiment of the present invention.
Figure 2 is a flowchart illustrating a method for detecting a nanoparticle contrast agent area using a nanoparticle contrast agent area detection device according to an embodiment of the present invention.
Figure 3 is a graph showing linear attenuation coefficients for water, bone, and contrast agent (Au) according to energy changes.
FIG. 4 is an example diagram illustrating a method of generating learning data classified into a first group and a second group in step S210 shown in FIG. 2.
Figure 5 is an example diagram for explaining step S230 shown in Figure 2.
Figure 6 is an example diagram for explaining step S240 shown in Figure 2.
Figure 7 is an example diagram for explaining step S250 shown in Figure 2.
Figure 8 is an example diagram for explaining step S260 shown in Figure 2.
Figure 9 is an example diagram explaining step S270 shown in Figure 2.

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the attached drawings. In this process, the thickness of lines or sizes of components shown in the drawing may be exaggerated for clarity and convenience of explanation.

또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Additionally, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be made based on the content throughout this specification.

이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치에 대하여 더욱 상세하게 설명한다. Hereinafter, the nanoparticle contrast agent area detection device according to an embodiment of the present invention will be described in more detail using FIG. 1.

도 1은 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치에 대한 구성도이다. 1 is a configuration diagram of a device for detecting a nanoparticle contrast agent area according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치(100)는 전처리부(110), 영상 입력부(120), 확률 추정부(130), 이미지 변환부(140) 및 제어부(150)를 포함한다. As shown in FIG. 1, the nanoparticle contrast agent area detection device 100 according to an embodiment of the present invention includes a preprocessor 110, an image input unit 120, a probability estimation unit 130, and an image conversion unit 140. and a control unit 150.

먼저, 전처리부(110)는 크기가 상이한 복수의 보정용 팬텀에 광선을 조사하여 측정된 측정값을 제1 그룹 또는 제2그룹으로 분류한 학습 데이터를 생성한다. 그리고, 전처리부(110)는 제1 그룹에 해당하는 학습 데이터의 확률값과, 제2 그룹에 해당하는 학습 데이터의 확률값을 산출한다. First, the preprocessor 110 radiates light to a plurality of correction phantoms of different sizes and generates learning data that classifies the measured values into a first group or a second group. Then, the preprocessor 110 calculates the probability value of the learning data corresponding to the first group and the probability value of the learning data corresponding to the second group.

영상 입력부(120)는 광자 계수 검출기(PCD)로 검출된 측정값을 이용하여 생성된 원본 사이노그램(sonogram)을 입력받는다. The image input unit 120 receives an original sinogram generated using measured values detected by a photon counting detector (PCD).

확률 추정부(130)는 입력된 원본 사이노그램을 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘에 입력하여 원본 사이노그램이 제1 그룹에 해당하는 제1 사후 확률값과 제2 그룹에 해당하는 제2 사후 확률값을 추정한다. The probability estimation unit 130 inputs the input original sinogram into the K-Nearest Neighbor (K-NN, K-Nearest Neighbor) algorithm so that the original sinogram has the first posterior probability value corresponding to the first group and the first posterior probability value corresponding to the first group. Estimate the second posterior probability value corresponding to group 2.

이미지 변환부(140)는 제1 사후 확률값을 원본 사이노그램에 적용하여 제1 사이노그램을 생성하고, 제2 사후 확률값을 원본 사이노그램에 적용하여 제2 사이노그램을 생성한다. 그 다음, 이미지 변환부(140)는 제1 사이노그램을 역투영하여 제1 역투영 이미지를 생성하고, 제2 사이노그램을 역투영하여 제2 역투영 이미지를 생성한다. The image conversion unit 140 generates a first sinogram by applying the first posterior probability value to the original sinogram, and generates a second sinogram by applying the second posterior probability value to the original sinogram. Next, the image converter 140 backprojects the first sinogram to generate a first backprojected image, and backprojects the second sinogram to generate a second backprojected image.

마지막으로 제어부(150)는 제1 역투영 이미지와 제2 역투영 이미지를 비교하여 이진화된 영상을 생성하고, 생성된 이진화된 영상을 이용하여 나노입자 조영제 영역을 검출한다. Finally, the control unit 150 compares the first back-projection image and the second back-projection image to generate a binarized image, and detects the nanoparticle contrast agent area using the generated binarized image.

이하에서는 도 2 내지 도 9를 이용하여 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치(100)를 이용하여 나노입자 조영제 영역 검출 방법에 대해 더욱 상세하게 설명한다. Hereinafter, a method for detecting a nanoparticle contrast agent area using the nanoparticle contrast agent area detection device 100 according to an embodiment of the present invention will be described in more detail using FIGS. 2 to 9.

도 2는 본 발명의 실시예에 따른 나노입자 조영제 영역 검출 장치를 이용한 나노입자 조영제 영역 검출 방법을 설명하기 위한 순서도이다. Figure 2 is a flowchart illustrating a method for detecting a nanoparticle contrast agent area using a nanoparticle contrast agent area detection device according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 나노입자 조영제 영역 검출 장치(100)는 광자 계수 검출기(PCD)로부터 획득한 측정값을 제1 그룹의 학습 데이터와 제2그룹의 학습 데이터로 분류한다(S210). As shown in FIG. 2, the nanoparticle contrast agent area detection device 100 classifies the measured values obtained from the photon counting detector (PCD) into first group training data and second group training data (S210).

광자 계수 검출기(PCD)는 광선의 포톤(광자)의 수를 에너지 대역 별로 계측한다. A photon counting detector (PCD) measures the number of photons in a light beam for each energy band.

도 3은 에너지 변화에 따른 물, 뼈, 조영제(Au)에 대한 선형 감쇄 계수를 나타낸 그래프이다. Figure 3 is a graph showing linear attenuation coefficients for water, bone, and contrast agent (Au) according to energy changes.

도 3에 도시된 바와 같이, 나노입자 조영제(Au)의 선형감쇄계수는 에너지가 증가할수록 감소하다가 K-edge 영역에서 갑자기 증가하는 형태로 출력된다. 즉, 광자 계수 검출기(PCD)는 광선이 나노입자 조영제 영역을 통과할 때와 그렇지 않을 때 서로 다른 경향을 보인다. As shown in Figure 3, the linear attenuation coefficient of the nanoparticle contrast agent (Au) decreases as energy increases and then suddenly increases in the K-edge region. That is, the photon counting detector (PCD) shows different tendencies when the light ray passes through the nanoparticle contrast agent region and when it does not.

따라서, 본 발명의 실시예에서는 복수의 보정용 팬텀을 스캐닝하여 검출된 측정값을 이용하여 광선이 나노입자 조영제 영역을 통과하는 그룹과 나노입자 조영제 영역을 통과하지 않는 그룹으로 분류한 학습 데이터를 생성한다. Therefore, in an embodiment of the present invention, measurement values detected by scanning a plurality of correction phantoms are used to generate learning data classified into a group in which light passes through the nanoparticle contrast agent area and a group in which light does not pass through the nanoparticle contrast agent area. .

부연하자면, 스캐닝하고자 하는 보정용 팬텀은 크기 및 두께가 상이하며, 각각 상이한 농도의 나노입자 조영제가 투입된다. 본 발명의 실시예에서는 금(Au) 나노입자 조영제를 예로 들어 기술하였으나, 이에 한정하지 않고 다양한 나노입자 조영제를 대체하여 적용할 수도 있다. To elaborate, the correction phantoms to be scanned have different sizes and thicknesses, and different concentrations of nanoparticle contrast agents are injected into them. In the embodiments of the present invention, a gold (Au) nanoparticle contrast agent is described as an example, but the present invention is not limited to this and various nanoparticle contrast agents may be used instead.

전처리부(110)는 광자 계수 검출기(PCD)로부터 보정용 팬텀에 조사된 광선에 대응하여 검출된 측정값을 획득한다. 그리고, 전처리부(110)는 측정값을 제1 그룹과 제2 그룹으로 분류한다. 여기서, 제1 그룹은 조사된 광선이 나노입자 조영제 영역을 통과한 그룹을 나타내고, 제2 그룹은 조사된 광선이 나노입자 조영제 영역을 통과하지 않은 그룹을 나타낸다. 부연하자면, 보정용 팬텀을 사용하여 학습 데이터를 생성하는 경우, 사용자는 조영제 사용 여부를 미리 알고 있는 상태이다. 따라서, 사용자는 보정용 팬텀에 따라 조영제 사용 여부를 추가적으로 입력할 수도 있다. 그러면, 전처리부(110)는 입력된 조영제 사용 여부에 따라 측정값을 제1 그룹 및 제2 그룹으로 분류한다. The preprocessor 110 obtains a measurement value detected corresponding to the light irradiated to the correction phantom from the photon counting detector (PCD). Then, the preprocessor 110 classifies the measured values into a first group and a second group. Here, the first group represents a group in which the irradiated light ray passed through the nanoparticle contrast agent region, and the second group represents the group in which the irradiated ray did not pass through the nanoparticle contrast agent region. To elaborate, when generating learning data using a correction phantom, the user knows in advance whether or not a contrast agent will be used. Accordingly, the user may additionally input whether or not to use contrast medium depending on the correction phantom. Then, the preprocessing unit 110 classifies the measured values into a first group and a second group according to whether or not the input contrast medium is used.

도 4는 도 2에 도시된 S210단계에서 제1 그룹과 제2 그룹으로 분류된 학습데이터를 생성하는 방법을 설명하기 위한 예시도이다. FIG. 4 is an example diagram illustrating a method of generating learning data classified into a first group and a second group in step S210 shown in FIG. 2.

도 4에 도시된 바와 같이, 예를 들어, 뼈는 -1cm에서 5cm의 범위를 가지고, 물은 0에서 35cm의 범위를 가지며, 금(Au) 나노입자의 농도는 0에서 55.2[mg/㎠]의 범위를 가지는 복수의 보정용 팬텀을 이용하여 스캐닝을 수행하였다고 가정한다. 그러면, 전처리부(110)는 복수의 보정용 팬텀을 스캐닝한 결과를 이용하여 녹색 박스 즉 금(Au) 나노입자의 농도가 5.02[mg/㎠] 이상에 해당하는 측정값을 제1 그룹(C1)의 학습 데이터로 분류하고, 금(Au) 나노입자의 농도가 5.02[mg/㎠] 미만에 해당하는 측정값을 제2 그룹(C2)의 학습 데이터로 분류한다. As shown in Figure 4, for example, bone has a range from -1 cm to 5 cm, water has a range from 0 to 35 cm, and the concentration of gold (Au) nanoparticles ranges from 0 to 55.2 [mg/cm2]. Assume that scanning was performed using a plurality of correction phantoms with a range of . Then, the pre-processing unit 110 uses the results of scanning a plurality of correction phantoms to enter the green box, that is, a measured value corresponding to a concentration of gold (Au) nanoparticles of 5.02 [mg/cm2] or more, into the first group (C1). is classified as learning data, and the measured value corresponding to the concentration of gold (Au) nanoparticles is less than 5.02 [mg/cm2] is classified as learning data of the second group (C2).

본 발명의 실시예에서는 제1 그룹의 학습 데이터 생성에 사용된 최소 농도값을 5.02[mg/㎠]로 설정하였으나, 이에 한정하지 않고 필요에 따라 조영제의 농도를 상이하게 적용할 수 있다. 한편, 전처리부(110)는 잡음 제거를 위하여 동일한 보정용 팬텀에 스캐닝을 여러 번 수행하고, 스캐닝을 따라 측정된 각각의 측정값들의 평균을 학습데이터로 사용할 수도 있다. 그 다음, 전처리부(110)는 제1 그룹에 대응하는 제1 확률값과 제2 그룹에 대응하는 제2 확률값을 산출한다(S220). In an embodiment of the present invention, the minimum concentration value used to generate the learning data for the first group was set to 5.02 [mg/cm2], but the concentration is not limited to this and the concentration of the contrast agent can be applied differently as needed. Meanwhile, the preprocessor 110 may perform scanning on the same calibration phantom several times to remove noise, and use the average of each measurement value measured along the scanning as learning data. Next, the preprocessor 110 calculates a first probability value corresponding to the first group and a second probability value corresponding to the second group (S220).

부연자하면, 전처리부(110)는 전체의 학습 데이터 중에서 제1 그룹(C1)에 해당하는 학습 데이터의 비율을 제1 확률값으로 산출하고, 전체의 학습 데이터 중에서 제2 그룹(C1)에 해당하는 학습 데이터의 비율을 제2 확률값으로 산출한다. To elaborate, the preprocessor 110 calculates the ratio of the learning data corresponding to the first group (C1) among the entire learning data as a first probability value, and calculates the ratio of the learning data corresponding to the first group (C1) among the entire learning data as a first probability value. The ratio of learning data is calculated as the second probability value.

S220단계가 완료되면, 영상 입력부(120)는 복수의 광자 계수 검출기(PCD)로부터 검출된 측정값을 그래프화하여 획득한 원본 사이노그램을 입력받는다(S230). When step S220 is completed, the image input unit 120 receives the original sinogram obtained by graphing the measured values detected from a plurality of photon counting detectors (PCD) (S230).

도 5는 도 2에 도시된 S230단계를 설명하기 위한 예시도이다. Figure 5 is an example diagram for explaining step S230 shown in Figure 2.

도 5에 도시된 바와 같이, 방사선사는 피검자를 CT 장비에 위치시킨 상태에서 빔을 0°에서 360°로 회전시키면서 X선을 조사한다. 이때, CT 장비의 저측에는 한 개 이상의 광자 계수 검출기(PCD)가 설치되며, 광자 계수 검출기(PCD)는 X선의 흡수량에 따른 광자 계수를 검출한다. 사이노그램은 X선의 흡수량을 그래프화한 것으로서, 영상 입력부(120)는 한 개 이상의 광자 계수 검출기(PCD)로부터 원본 사이노그램을 입력받는다. As shown in Figure 5, the radiologist places the subject in the CT equipment and radiates X-rays while rotating the beam from 0° to 360°. At this time, one or more photon counting detectors (PCDs) are installed on the bottom of the CT equipment, and the photon counting detectors (PCDs) detect photon counts according to the amount of X-ray absorption. The sinogram is a graph of the absorption amount of X-rays, and the image input unit 120 receives the original sinogram from one or more photon counting detectors (PCDs).

그 다음, 확률 추정부(130)는 입력된 원본 사이노그램에 대한 제1 사후 확률값 및 제2 사후 확률값을 추정한다(S240). Next, the probability estimation unit 130 estimates the first posterior probability value and the second posterior probability value for the input original sinogram (S240).

부연하자면, 확률 추정부(130)는 S210단계에서 획득한 제1 그룹의 학습 데이터 및 제2 그룹의 학습데이터와 S220단계에서 획득한 제1 확률값 및 제2 확률값 그리고 원본 사이노그램을 K-최근접 이웃(K-NN) 알고리즘에 입력한다. To elaborate, the probability estimation unit 130 uses the first group of learning data and the second group of learning data obtained in step S210, the first probability value and the second probability value obtained in step S220, and the original sinogram to be K-most recent. Enter into the nearest neighbor (K-NN) algorithm.

이때, 원본 사이노그램에 포함되는 모든 측정값은 하기의 수학식 1과 같이 나타낼 수 있다. At this time, all measured values included in the original sinogram can be expressed as Equation 1 below.

여기서 U는 광자 계수 검출기(PCD)의 총 개수이고, V는 빔의 회전 각도에 대한 총 개수이며, B는 하나의 광자 계수 검출기(PCD)에서 획득할 수 있는 에너지 영역의 총 개수를 나타낸다. Here, U is the total number of photon counting detectors (PCD), V is the total number of rotation angles of the beam, and B represents the total number of energy regions that can be acquired from one photon counting detector (PCD).

K-최근접 이웃(K-NN) 알고리즘은 하기의 수학식 2를 이용하여 해당되는 원본 사이노그램의 제1 사후 확률값 및 제2 사후 확률값을 추정한다. The K-Nearest Neighbor (K-NN) algorithm estimates the first and second posterior probability values of the corresponding original sinogram using Equation 2 below.

여기서, y는 표기의 단순함을 위해 사용되는 정규화된 기호에 해당하며, 는 j번째 광선에 대응하는 사이노그램의 픽셀값들에 대한 백터값을 나타내며, k는 1 또는 2의 값을 가진다. 또한, 는 제1 그룹 또는 제2 그룹을 나타낸다. Here, y corresponds to the normalized symbol used for simplicity of notation, represents the vector value for the pixel values of the sinogram corresponding to the jth ray, and k has a value of 1 or 2. also, represents the first group or the second group.

도 6은 도 2에 도시된 S240단계를 설명하게 위한 예시도이다. Figure 6 is an example diagram for explaining step S240 shown in Figure 2.

도 6에 도시된 바와 같이, 에너지 영역 개수가 4개라고 가정하면, K-최근접 이웃(K-NN) 알고리즘은 원본 사이노그램에 포함된 4개의 j번째 사이노그램 픽셀이 제1 그룹에 속할 확률 즉, 제1 사후 확률값을 추정한다. As shown in Figure 6, assuming that the number of energy regions is 4, the K-Nearest Neighbor (K-NN) algorithm assigns the 4 jth sinogram pixels included in the original sinogram to the first group. The probability of belonging, that is, the first posterior probability value, is estimated.

그리고, K-최근접 이웃(K-NN) 알고리즘은 원본 사이노그램에 포함된 4개의 j번째 픽셀이 제2 그룹에 속할 확률 즉, 제2 사후 확률값을 추정한다. And, the K-Nearest Neighbor (K-NN) algorithm estimates the probability that the four jth pixels included in the original sinogram belong to the second group, that is, the second posterior probability value.

한편, 추정된 제1 사후 확률값과 제2 사후 확률값의 합은 1로 설정된다. 다만, 사후 확률값에 부스팅 알고리즘을 적용하게 되면, 확률 추정부(130)는 제1 사후 확률값 또는 제2 사후 확률값을 0 또는 1의 극단값으로 변경하여 출력한다. Meanwhile, the sum of the estimated first posterior probability value and the second posterior probability value is set to 1. However, when the boosting algorithm is applied to the posterior probability value, the probability estimation unit 130 changes the first posterior probability value or the second posterior probability value to an extreme value of 0 or 1 and outputs it.

S240단계가 완료되면, 이미지 변환부(140)는 추정된 제1 사후 확률값을 이용하여 제1 사이노그램을 생성하고, 추정된 제2 사후 확률값을 이용하여 제2 사이노그램을 생성한다(S250). When step S240 is completed, the image conversion unit 140 generates a first sinogram using the estimated first posterior probability value and generates a second sinogram using the estimated second posterior probability value (S250 ).

부연하자면, 이미지 변환부(140)는 추정된 제1 사후 확률값 또는 제2 사후 확률값을 하기의 수학식에 입력하여 사이노그램 포인트값을 획득한다. To elaborate, the image conversion unit 140 obtains a sinogram point value by inputting the estimated first posterior probability value or the second posterior probability value into the following equation.

여기서, 는 k그룹의 j번째 사이노그램 픽셀을 나타내고, 가 제1 그룹에 속할 제1 확률값 또는 제2 그룹에 속할 제2 확률값을 나타낸다. here, represents the jth sinogram pixel of k group, Is represents the first probability value of belonging to the first group or the second probability value of belonging to the second group.

도 7은 도 2에 도시된 S250단계를 설명하기 위한 예시도이다. Figure 7 is an example diagram for explaining step S250 shown in Figure 2.

도 7에 도시된 바와 같이, 이미지 변환부(140)는 제1 사후 확률값을 수학식 3에 대입하여 j번째 사이노그램 픽셀값을 획득하고, 획득한 j번째 사이노그램 픽셀값을 이용하여 제1 사이노그램(S1)을 생성한다. As shown in FIG. 7, the image conversion unit 140 substitutes the first posterior probability value into Equation 3 to obtain the j-th sinogram pixel value, and uses the obtained j-th sinogram pixel value to obtain the first sinogram pixel value. 1 Create a sinogram (S1).

마찬가지로, 이미지 변환부(140)는 제2 사후 확률값을 수학식 3에 대입하여 j번째 사이노그램 픽셀값을 획득하고, 획득한 j번째 사이노그램 픽셀값을 이용하여 제2 사이노그램(S2)을 생성한다. Likewise, the image converter 140 substitutes the second posterior probability value into Equation 3 to obtain the j-th sinogram pixel value, and uses the obtained j-th sinogram pixel value to generate a second sinogram (S2 ) is created.

그 다음, 이미지 변환부(140)는 제1 사이노그램을 역투영(Backprojection)하여 제1 영투영 이미지로 변환하고, 제2 사이노그램을 역투영하여 제2 영투영 이미지로 변환한다(S260). Next, the image conversion unit 140 backprojects the first sinogram to convert it into a first zero projection image, and backprojects the second sinogram to convert it to a second zero projection image (S260) ).

도 8은 도 2에 도시된 S260단계를 설명하기 위한 예시도이다. Figure 8 is an example diagram for explaining step S260 shown in Figure 2.

이미지 변환부(140)는 하기의 수학식 4를 이용하여 제1 사이노그램 및 제2 사이노그램을 역투영한다. The image conversion unit 140 backprojects the first sinogram and the second sinogram using Equation 4 below.

여기서, 는 역투영 연산자를 나타내고, 에 속하며 k 그룹에 대한 역투영 이미지를 나타내며, 는 열과 행의 개수가 각각 N 인 2차원 영상을 나타낸다.here, represents the backprojection operator, Is belongs to and represents the backprojection image for k groups, represents a two-dimensional image with N columns and N rows.

그러면, 도 8에 도시된 바와 같이, 제1 사이노그램에 대응하는 제1 역투영 이미지가 생성되고, 제2 사이노그램에 대응하는 제2 역투영 이미지가 생성된다. Then, as shown in FIG. 8, a first back-projection image corresponding to the first sinogram is generated, and a second back-projection image corresponding to the second sinogram is generated.

한편, 본 발명의 실시예에서는 중앙값 필터 또는 전체 변형 기반 잡음 제거 알고리즘을 제1 사이노그램 및 제2 사이노그램에 적용하여 잡음을 제거한 다음, 잡음이 제거된 제1 사이노그램 및 제2 사이노그램을 역투영할 수도 있다. Meanwhile, in an embodiment of the present invention, noise is removed by applying a median filter or full transformation-based noise removal algorithm to the first sinogram and the second sinogram, and then between the first sinogram and the second sinogram from which the noise has been removed. You can also backproject a nogram.

S260단계가 완료되면, 제어부(150)는 제1 역투영 이미지와 제2 역투영 이미지를 상호 비교하여 이진화 영상을 추출하고, 추출된 이진화 영상을 이용하여 나노입자 조영제 영역을 검출한다(S270). When step S260 is completed, the control unit 150 extracts a binarized image by comparing the first back-projected image and the second back-projected image, and detects the nanoparticle contrast agent area using the extracted binarized image (S270).

자세히는 제1 역투영 이미지에 포함된 n번째 픽셀과 제2 역투영 이미지에 포함된 n번째 픽셀을 비교한다. 그리고, 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 크면, 제어부(150)는 해당되는 픽셀에 1값을 부여한다. In detail, the nth pixel included in the first backprojection image is compared with the nth pixel included in the second backprojection image. And, if the n-th pixel value included in the first back-projected image is greater than the n-th pixel value included in the second back-projected image, the control unit 150 assigns a value of 1 to the corresponding pixel.

반면에 제1 역투영 이미지에 포함된 n번째 픽셀값이 제2 역투영 이미지에 포함된 n번째 픽셀값보다 작으면, 제어부(150)는 해당되는 픽셀에 0값을 부여한다. On the other hand, if the n-th pixel value included in the first back-projection image is smaller than the n-th pixel value included in the second back-projection image, the control unit 150 assigns a value of 0 to the corresponding pixel.

그 다음, 제어부(150)는 픽셀값이 1에 해당하는 영역을 나노입자 조영제 영역으로 검출한다. Next, the control unit 150 detects the area where the pixel value is 1 as the nanoparticle contrast agent area.

부연하자면, 픽셀값이 0에 해당하는 영역은 나노입자 조영제가 없는 영역 또는 아주 작은 농도의 조영제가 분포된 영역을 나타내고, 픽셀값이 1에 해당하는 영역은 타겟이 되는 병변의 위치에 상대적으로 높은 농도의 조영제가 분포된 영역을 나타낸다. To elaborate, the area corresponding to a pixel value of 0 represents an area without nanoparticle contrast agent or an area where a very small concentration of contrast agent is distributed, and the area corresponding to a pixel value of 1 represents a relatively high concentration of the target lesion. It represents the area where the contrast agent concentration is distributed.

도 9는 도 2에 도시된 S270단계를 설명한 예시도이다. Figure 9 is an example diagram explaining step S270 shown in Figure 2.

도 9에 도시된 바와 같이, 왼쪽에 구성된 도면은 부스팅 알고리즘 및 잡음 제거 알고리즘을 수행하지 않은 상태에서 이진화 영상을 획득하는 방법을 나타내고, 오른쪽에 구성된 도면은 부스팅 알고리즘 및 잡음 제거 알고리즘을 수행한 상태에서 이진화 영상을 획득하는 방법을 나타내는 도면이다. As shown in FIG. 9, the diagram on the left shows a method of acquiring a binarized image without performing the boosting algorithm and the noise removal algorithm, and the diagram on the right shows a method of obtaining a binarized image without performing the boosting algorithm and the noise removal algorithm. This is a diagram showing a method of acquiring a binarized image.

두 가지 방법 모두 이진화 영상을 이용하여 나노입자 조영제 영역을 검출할 수 있으나, 부스팅 알고리즘 및 잡음 제거 알고리즘을 수행할 경우 더욱 선명한 나노입자 조영제 영역을 검출할 수 있다. Both methods can detect the nanoparticle contrast agent area using binarized images, but when performing the boosting algorithm and noise removal algorithm, a clearer nanoparticle contrast agent area can be detected.

이와 같이 본 발명에 따른 나노입자 조영제 영역 검출 장치는 최대우도 분류법에 근거하여 이진화를 수행하므로 별도의 임계값을 정할 필요가 없어 비선형 최적화 방법보다 계산 효율을 증대시킬 수 있고, 사이노그램을 이용하므로 빔 경화 형상 또는 부분 볼륨 효과에 대한 영향을 덜 받을 수 있다. As such, the nanoparticle contrast agent area detection device according to the present invention performs binarization based on the maximum likelihood classification method, so there is no need to set a separate threshold, which can increase calculation efficiency compared to nonlinear optimization methods, and uses a sinogram. Less susceptible to beam hardening geometry or partial volume effects.

또한, 본 발명에 따른 나노입자 조영제 영역 검출 장치는 KNN 알고리즘을 이용하므로 학습 모델을 학습시키는데 소요되는 시간을 절약할 수 있으며, 조영제 물질의 특성을 이용하여 병변의 위치만을 식별해낸 영상을 획득하여 제공함으로써 암 연구와 영상 진단에 기여할 수 있다. In addition, the nanoparticle contrast agent area detection device according to the present invention uses the KNN algorithm, so it can save the time required to train the learning model, and obtains and provides images that identify only the location of the lesion using the characteristics of the contrast agent material. By doing so, it can contribute to cancer research and imaging diagnosis.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.The present invention has been described with reference to the embodiments shown in the drawings, but these are merely illustrative, and those skilled in the art will understand that various modifications and other equivalent embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the patent claims below.

100 : 나노입자 조영제 영역 검출 장치
110 : 전처리부
120 : 영상 입력부
130 : 확률 추정부
140 : 이미지 변환부
150 : 제어부
100: Nanoparticle contrast agent area detection device
110: preprocessing unit
120: video input unit
130: Probability estimation unit
140: Image conversion unit
150: control unit

Claims (20)

포톤카운팅 CT에서의 나노입자 조영제 영역 검출 장치에 있어서,
복수의 보정용 팬텀에 조사된 광선의 측정값을 이용하여 학습 데이터를 생성하고, 생성된 학습 데이터를 광선의 조영제 영역 통과 유무에 따라 제1 그룹과 제2 그룹으로 분류한 다음, 상기 제1 그룹에 대한 제1 확률값과 제2 그룹에 대한 확률값을 산출하는 전처리부,
나노입자 조영제 영역을 검출하고자 하는 원본 사이노그램을 입력받는 영상 입력부,
상기 획득한 원본 사이노그램에 포함된 복수의 픽셀을 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘에 입력하여 해당되는 픽셀에 대한 제1 사후 확률값 및 제2 사후 확률값을 추정하는 확률 추정부,
상기 제1 사후 확률값을 이용하여 제1 사이노그램을 생성하고, 상기 제2 사후 확률값을 이용하여 제2 사이노그램을 생성한 다음, 상기 생성된 제1 사이노그램 및 제2 사이노그램을 역투영(Back projection)하여 역투영 이미지로 변환시키는 이미지 변환부, 그리고
상기 제1 사이노그램을 변환시켜 생성된 제1 역투영 이미지와 상기 제2 사이노그램을 변환시켜 생성된 제2 역투영 이미지를 상호 비교하여 나노입자 조영제 영역을 검출하는 제어부를 포함하는 나노입자 조영제 영역 검출 장치.
In the nanoparticle contrast agent area detection device in photon counting CT,
Learning data is generated using the measured values of rays irradiated to a plurality of correction phantoms, the generated learning data is classified into a first group and a second group according to whether or not the rays pass through the contrast agent area, and then the first group is assigned to the first group. A preprocessor that calculates the first probability value for and the probability value for the second group,
An image input unit that receives the original sinogram for detecting the nanoparticle contrast agent area,
Inputting a plurality of pixels included in the obtained original sinogram into the K-Nearest Neighbor (K-NN, K-Nearest Neighbor) algorithm to estimate the first posterior probability value and the second posterior probability value for the corresponding pixel. probability estimator,
Generate a first sinogram using the first posterior probability value, generate a second sinogram using the second posterior probability value, and then generate the first sinogram and the second sinogram. An image conversion unit that performs back projection and converts it into a back-projected image, and
Nanoparticle including a control unit that detects the nanoparticle contrast agent area by comparing the first back-projection image generated by converting the first sinogram and the second back-projection image generated by converting the second sinogram. Contrast agent area detection device.
제1항에 있어서,
상기 전처리부는,
광자계수형 검출기(photon counting detector)에 의해 검출된 측정값을 이용하여 조사된 광선이 상기 나노입자 조영제가 존재하는 영역을 통과하면, 해당되는 학습 데이터를 제1 그룹으로 분류하고,
상기 조사된 광선이 나노입자 조영제가 존재하지 않는 영역을 통과하면, 해당되는 학습 데이터를 제2 그룹으로 분류하는 나노입자 조영제 영역 검출 장치.
According to paragraph 1,
The preprocessor,
When the light irradiated using the measurement value detected by a photon counting detector passes through the area where the nanoparticle contrast agent is present, the corresponding learning data is classified into a first group,
A nanoparticle contrast agent area detection device that classifies the corresponding learning data into a second group when the irradiated light passes through an area where the nanoparticle contrast agent does not exist.
제1항에 있어서,
상기 확률 추정부는,
상기 제1 그룹과 상기 제2 그룹으로 분류된 학습 데이터와,
제1 확률값 및 제2 확률값, 그리고
상기 원본 사이노그램의 광자수를 상기 K-최근접 이웃(K-NN) 알고리즘의 입력 데이터로 하는 나노입자 조영제 영역 검출 장치.
According to paragraph 1,
The probability estimation unit,
Learning data classified into the first group and the second group,
a first probability value and a second probability value, and
A nanoparticle contrast agent area detection device that uses the number of photons of the original sinogram as input data for the K-nearest neighbor (K-NN) algorithm.
제3항에 있어서,
상기 확률 추정부는,
상기 K-최근접 이웃(K-NN) 알고리즘을 이용하여 입력되는 사이노그램의 모든 픽셀에 대한 각각의 제1사후 확률값 및 제2 사후 확률값을 획득하며,
상기 획득한 제1 사후 확률값과 제2 사후 확률값의 합은 1로 설정되는 나노입자 조영제 영역 검출 장치.
According to paragraph 3,
The probability estimation unit,
Obtaining first posterior probability values and second posterior probability values for each pixel of the input sinogram using the K-nearest neighbor (K-NN) algorithm,
A nanoparticle contrast agent area detection device wherein the sum of the obtained first posterior probability value and the second posterior probability value is set to 1.
제4항에 있어서,
상기 확률 추정부는,
사후 확률값에 부스팅 알고리즘을 적용하여 제1 사후 확률값 또는 제2 사후 확률값을 0 또는 1의 극단값으로 변경하여 출력하는 나노입자 조영제 영역 검출 장치.
According to paragraph 4,
The probability estimation unit,
A nanoparticle contrast agent area detection device that changes the first or second posterior probability value to an extreme value of 0 or 1 by applying a boosting algorithm to the posterior probability value and outputs it.
제4항에 있어서,
상기 이미지 변환부는,
상기 제1 사후 확률값 또는 제2 사후 확률값을 하기의 수학식에 대입하여 사이노그램 포인트값을 획득하는 나노입자 조영제 영역 검출 장치:

여기서, 는 k그룹의 j번째 사이노그램 픽셀을 나타내고, k는 그룹별 인덱스(1 또는 2)를 나타내며, 는 제1 그룹 또는 제2 그룹을 나타내고, 는 j번째 픽셀의 벡터값을 나타내며, 는 j번째 픽셀의 벡터값이 제1 그룹 또는 제2 그룹에 속하는 확률을 나타내고, 는 j번째 픽셀의 벡터값이 제1 그룹 또는 제2 그룹에 속하는 사후 확률을 나타낸다.
According to paragraph 4,
The image conversion unit,
Nanoparticle contrast agent area detection device for obtaining a sinogram point value by substituting the first posterior probability value or the second posterior probability value into the following equation:

here, represents the jth sinogram pixel of k group, k represents the index (1 or 2) for each group, represents the first group or the second group, represents the vector value of the jth pixel, represents the probability that the vector value of the jth pixel belongs to the first group or the second group, represents the posterior probability that the vector value of the jth pixel belongs to the first group or the second group.
제6항에 있어서,
상기 이미지 변환부는,
하기의 수학식을 이용하여 역투영 이미지를 생성하는 나노입자 조영제 영역 검출 장치:

여기서, 는 역투영 연산자를 나타내고, 에 속하며 k 그룹에 대한 역투영 이미지를 나타내며, 는 열과 행의 개수가 각각 N 인 2차원 영상을 나타낸다.
According to clause 6,
The image conversion unit,
Nanoparticle contrast agent area detection device that generates a back-projection image using the following equation:

here, represents the backprojection operator, Is belongs to and represents the backprojection image for k groups, represents a two-dimensional image with N columns and N rows.
제1항에 있어서,
상기 이미지 변환부는,
상기 제1 사이노그램 및 제2 사이노그램을 역투영 이미지로 변환하기 전에 중앙값 필터 또는 전체 변형 기반 잡음 제거 알고리즘을 적용하여 상기 제1 사이노그램 및 제2 사이노그램에 포함된 잡음을 제거하는 나노입자 조영제 영역 검출 장치.
According to paragraph 1,
The image conversion unit,
Remove noise included in the first sinogram and the second sinogram by applying a median filter or a full transformation-based noise removal algorithm before converting the first sinogram and the second sinogram into a backprojection image. Nanoparticle contrast agent area detection device.
제7항에 있어서,
상기 제어부는,
상기 제1 역투영 이미지에 포함된 n번째 픽셀과 상기 제2 역투영 이미지에 포함된 n번째 픽셀을 비교한 다음,
상기 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 크면 해당되는 픽셀에 1값을 부여하고,
상기 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 작으면 해당되는 픽셀에 0값을 부여하는 나노입자 조영제 영역 검출 장치.
In clause 7,
The control unit,
After comparing the nth pixel included in the first backprojection image with the nth pixel included in the second backprojection image,
If the n-th pixel value included in the first back-projection image is greater than the n-th pixel value included in the second back-projection image, a value of 1 is assigned to the corresponding pixel,
A nanoparticle contrast agent area detection device that assigns a value of 0 to the corresponding pixel if the n-th pixel value included in the first back-projection image is smaller than the n-th pixel value included in the second back-projection image.
제9항에 있어서,
상기 제어부는,
픽셀 값이 1에 해당하는 영역을 나노입자 조영제 영역으로 검출하는 나노입자 조영제 영역 검출 장치.
According to clause 9,
The control unit,
A nanoparticle contrast agent area detection device that detects the area where the pixel value is 1 as the nanoparticle contrast agent area.
나노입자 조영제 영역 검출 장치를 이용한 나노입자 조영제 영역 검출 방법에 있어서,
복수의 보정용 팬텀에 조사된 광선의 측정값을 이용하여 학습 데이터를 생성하고, 생성된 학습 데이터를 광선의 조영제 영역 통과 유무에 따라 제1 그룹과 제2 그룹으로 분류한 다음, 상기 제1 그룹에 대한 제1 확률값과 제2 그룹에 대한 확률값을 산출하는 단계,
나노입자 조영제 영역을 검출하고자 하는 원본 사이노그램을 입력받는 단계,
상기 획득한 원본 사이노그램에 포함된 복수의 픽셀을 K-최근접 이웃(K-NN, K-Nearest Neighbor) 알고리즘에 입력하여 해당되는 픽셀에 대한 제1 사후 확률값 및 제2 사후 확률값을 추정하는 단계,
상기 제1 사후 확률값을 이용하여 제1 사이노그램을 생성하고, 상기 제2 사후 확률값을 이용하여 제2 사이노그램을 생성한 다음, 상기 생성된 제1 사이노그램 및 제2 사이노그램을 역투영(Back projection)하여 역투영 이미지로 변환시키는 단계, 그리고
상기 제1 사이노그램을 변환시켜 생성된 제1 역투영 이미지와 상기 제2 사이노그램을 변환시켜 생성된 제2 역투영 이미지를 상호 비교하여 나노입자 조영제 영역을 검출하는 단계를 포함하는 나노입자 조영제 영역 검출 방법.
In the method of detecting the nanoparticle contrast agent area using a nanoparticle contrast agent area detection device,
Learning data is generated using the measured values of rays irradiated to a plurality of correction phantoms, the generated learning data is classified into a first group and a second group according to whether or not the rays pass through the contrast agent area, and then the first group is assigned to the first group. Calculating a first probability value for and a probability value for a second group,
Step of receiving the original sinogram for detecting the nanoparticle contrast agent area,
Inputting a plurality of pixels included in the obtained original sinogram into the K-Nearest Neighbor (K-NN, K-Nearest Neighbor) algorithm to estimate the first posterior probability value and the second posterior probability value for the corresponding pixel. step,
Generate a first sinogram using the first posterior probability value, generate a second sinogram using the second posterior probability value, and then generate the first sinogram and the second sinogram. A step of converting to a back-projected image by back projection, and
Nanoparticles comprising the step of detecting a nanoparticle contrast agent area by comparing a first back-projection image generated by converting the first sinogram and a second back-projection image generated by converting the second sinogram. Contrast agent area detection method.
제11항에 있어서,
상기 제1 그룹에 대한 제1 확률값과 제2 그룹에 대한 확률값을 산출하는 단계는,
광자계수형 검출기(photon counting detector)에 의해 검출된 측정값을 이용하여 조사된 광선이 상기 나노입자 조영제가 존재하는 영역을 통과하면, 해당되는 학습 데이터를 제1 그룹으로 분류하고,
상기 조사된 광선이 나노입자 조영제가 존재하지 않는 영역을 통과하면, 해당되는 학습 데이터를 제2 그룹으로 분류하는 나노입자 조영제 영역 검출 방법.
According to clause 11,
The step of calculating the first probability value for the first group and the probability value for the second group is,
When the light irradiated using the measurement value detected by a photon counting detector passes through the area where the nanoparticle contrast agent is present, the corresponding learning data is classified into a first group,
A nanoparticle contrast agent area detection method that classifies the corresponding learning data into a second group when the irradiated light passes through an area where the nanoparticle contrast agent does not exist.
제11항에 있어서,
상기 제1 사후 확률값 및 제2 사후 확률값을 추정하는 단계는,
상기 제1 그룹과 상기 제2 그룹으로 분류된 학습 데이터와,
제1 확률값 및 제2 확률값, 그리고
상기 원본 사이노그램의 광자수를 상기 K-최근접 이웃(K-NN) 알고리즘의 입력 데이터로 하는 나노입자 조영제 영역 검출 방법.
According to clause 11,
The step of estimating the first posterior probability value and the second posterior probability value is,
Learning data classified into the first group and the second group,
a first probability value and a second probability value, and
A nanoparticle contrast agent area detection method using the number of photons of the original sinogram as input data for the K-nearest neighbor (K-NN) algorithm.
제13항에 있어서,
상기 제1 사후 확률값 및 제2 사후 확률값을 추정하는 단계는,
상기 K-최근접 이웃(K-NN) 알고리즘을 이용하여 입력되는 사이노그램의 모든 픽셀에 대한 각각의 제1사후 확률값 및 제2 사후 확률값을 획득하며,
상기 획득한 제1 사후 확률값과 제2 사후 확률값의 합은 1로 설정되는 나노입자 조영제 영역 검출 방법.
According to clause 13,
The step of estimating the first posterior probability value and the second posterior probability value is,
Obtaining first posterior probability values and second posterior probability values for each pixel of the input sinogram using the K-nearest neighbor (K-NN) algorithm,
A nanoparticle contrast agent area detection method wherein the sum of the obtained first posterior probability value and the second posterior probability value is set to 1.
제14항에 있어서,
상기 제1 사후 확률값 및 제2 사후 확률값을 추정하는 단계는,
사후 확률값에 부스팅 알고리즘을 적용하여 제1 사후 확률값 또는 제2 사후 확률값을 0 또는 1의 극단값으로 변경하여 출력하는 나노입자 조영제 영역 검출 방법.
According to clause 14,
The step of estimating the first posterior probability value and the second posterior probability value is,
A nanoparticle contrast agent area detection method that applies a boosting algorithm to the posterior probability value to change the first or second posterior probability value to an extreme value of 0 or 1 and output it.
제14항에 있어서,
상기 역투영 이미지로 변환시키는 단계는,
상기 제1 사후 확률값 또는 제2 사후 확률값을 하기의 수학식에 대입하여 사이노그램 포인트값을 획득하는 나노입자 조영제 영역 검출 방법:

여기서, 는 k그룹의 j번째 사이노그램 픽셀을 나타내고, k는 그룹별 인덱스(1 또는 2)를 나타내며, 는 제1 그룹 또는 제2 그룹을 나타내고, 는 j번째 픽셀의 벡터값을 나타내며, 는 j번째 픽셀의 벡터값이 제1 그룹 또는 제2 그룹에 속하는 확률을 나타내고, 는 j번째 픽셀의 벡터값이 제1 그룹 또는 제2 그룹에 속하는 사후 확률을 나타낸다.
According to clause 14,
The step of converting to the back-projection image is,
Nanoparticle contrast agent area detection method for obtaining a sinogram point value by substituting the first posterior probability value or the second posterior probability value into the following equation:

here, represents the jth sinogram pixel of k group, k represents the index (1 or 2) for each group, represents the first group or the second group, represents the vector value of the jth pixel, represents the probability that the vector value of the jth pixel belongs to the first group or the second group, represents the posterior probability that the vector value of the jth pixel belongs to the first group or the second group.
제14항에 있어서,
상기 역투영 이미지로 변환시키는 단계는,
하기의 수학식을 이용하여 역투영 이미지를 생성하는 나노입자 조영제 영역 검출 방법:

여기서, 는 역투영 연산자를 나타내고, 에 속하며 k 그룹에 대한 역투영 이미지를 나타내며, 는 열과 행의 개수가 각각 N 인 2차원 영상을 나타낸다.
According to clause 14,
The step of converting to the back-projection image is,
Nanoparticle contrast agent area detection method that generates a back-projection image using the following equation:

here, represents the backprojection operator, Is belongs to and represents the backprojection image for k groups, represents a two-dimensional image with N columns and N rows.
제17항에 있어서,
상기 역투영 이미지로 변환시키는 단계는,
상기 제1 사이노그램 및 제2 사이노그램을 역투영 이미지로 변환하기 전에 중앙값 필터 또는 전체 변형 기반 잡음 제거 알고리즘을 적용하여 상기 제1 사이노그램 및 제2 사이노그램에 포함된 잡음을 제거하는 나노입자 조영제 영역 검출 방법.
According to clause 17,
The step of converting to the back-projection image is,
Remove noise included in the first sinogram and the second sinogram by applying a median filter or a full transformation-based noise removal algorithm before converting the first sinogram and the second sinogram into a backprojection image. Method for detecting nanoparticle contrast agent area.
제18항에 있어서,
상기 나노입자 조영제 영역을 검출하는 단계는,
상기 제1 역투영 이미지에 포함된 n번째 픽셀과 상기 제2 역투영 이미지에 포함된 n번째 픽셀을 비교한 다음,
상기 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 크면 해당되는 픽셀에 1값을 부여하고,
상기 제1 역투영 이미지에 포함된 n번째 픽셀값이 상기 제2 역투영 이미지에 포함된 n번째 픽셀값보다 작으면 해당되는 픽셀에 0값을 부여하는 나노입자 조영제 영역 검출 방법.
According to clause 18,
The step of detecting the nanoparticle contrast agent area is,
After comparing the nth pixel included in the first backprojection image with the nth pixel included in the second backprojection image,
If the n-th pixel value included in the first back-projection image is greater than the n-th pixel value included in the second back-projection image, a value of 1 is assigned to the corresponding pixel,
A nanoparticle contrast agent area detection method in which, if the nth pixel value included in the first backprojection image is smaller than the nth pixel value included in the second backprojection image, a value of 0 is assigned to the corresponding pixel.
제19항에 있어서,
상기 나노입자 조영제 영역을 검출하는 단계는,
픽셀 값이 1에 해당하는 영역을 나노입자 조영제 영역으로 검출하는 나노입자 조영제 영역 검출 방법.
According to clause 19,
The step of detecting the nanoparticle contrast agent area is,
A nanoparticle contrast agent area detection method that detects the area where the pixel value is 1 as the nanoparticle contrast agent area.
KR1020220079324A 2022-06-29 2022-06-29 Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof KR102654735B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220079324A KR102654735B1 (en) 2022-06-29 2022-06-29 Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220079324A KR102654735B1 (en) 2022-06-29 2022-06-29 Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof

Publications (2)

Publication Number Publication Date
KR20240002294A true KR20240002294A (en) 2024-01-05
KR102654735B1 KR102654735B1 (en) 2024-04-05

Family

ID=89541214

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220079324A KR102654735B1 (en) 2022-06-29 2022-06-29 Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof

Country Status (1)

Country Link
KR (1) KR102654735B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052349A (en) * 2014-09-02 2016-04-14 株式会社東芝 X-ray ct apparatus, image processing apparatus and image processing program
KR20190103816A (en) * 2018-02-28 2019-09-05 삼성전자주식회사 Method and apparatus for correcting the computed tomographic image
KR20210026934A (en) * 2019-09-02 2021-03-10 가천대학교 산학협력단 Novel image reconstruction system for nuclear medicine through training the neural network for improving the spatial resolution and image quality simultaneously based on structural image of phantoms
US20220180482A1 (en) * 2019-08-09 2022-06-09 Hura Imaging, Inc K-space based method for reducing noise and dose of radiation or contrast for perfusion imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016052349A (en) * 2014-09-02 2016-04-14 株式会社東芝 X-ray ct apparatus, image processing apparatus and image processing program
KR20190103816A (en) * 2018-02-28 2019-09-05 삼성전자주식회사 Method and apparatus for correcting the computed tomographic image
US20220180482A1 (en) * 2019-08-09 2022-06-09 Hura Imaging, Inc K-space based method for reducing noise and dose of radiation or contrast for perfusion imaging
KR20210026934A (en) * 2019-09-02 2021-03-10 가천대학교 산학협력단 Novel image reconstruction system for nuclear medicine through training the neural network for improving the spatial resolution and image quality simultaneously based on structural image of phantoms

Also Published As

Publication number Publication date
KR102654735B1 (en) 2024-04-05

Similar Documents

Publication Publication Date Title
US5742700A (en) Quantitative dental caries detection system and method
US6898263B2 (en) Method and apparatus for soft-tissue volume visualization
US7796795B2 (en) System and method for computer aided detection and diagnosis from multiple energy images
CN105559813B (en) Medical diagnostic imaging apparatus and medical image-processing apparatus
JP2019516460A (en) System and method for noise control in multi-energy CT images based on spatial and spectral information
CN110636796B (en) Beam hardening correction in X-ray dark field imaging
US10758201B2 (en) Variance reduction for monte carlo-based scatter estimation
JP2007111526A (en) Method and device for segmenting substance in x-ray image
US7983463B2 (en) Methods and apparatus for suppressing tagging material in prepless CT colonography
JP2011156302A (en) X-ray ct image processing method, x-ray ct program, and x-ray ct device mounted with the program
US8175361B2 (en) Method and apparatus for the artifact-reduced detection of a 3D object in tomographic imaging
CN111818851A (en) Non-spectral Computed Tomography (CT) scanner configured to generate spectral volumetric image data
KR102654735B1 (en) Apparatus for nanoparticle agent area detecting in photon-counting CT and method thereof
CN109690618B (en) Bone and hard plaque segmentation in spectral CT
US20230360201A1 (en) Multi-material decomposition for spectral computed tomography
CN113269797A (en) Method for determining main acquisition parameters and method for acquiring main x-ray image
Nagarajan et al. Proficient reconstruction algorithms for low-dose X-ray tomography
Shi et al. Raw-Data-Based Material Decomposition Using Modified U-Net for Low-Dose Spectral CT
van Schie et al. Noise model for microcalcification detection in reconstructed tomosynthesis slices
CN112089429B (en) Bone densitometer diagnostic system based on deep learning algorithm
US20230309937A1 (en) Spectral x-ray material decomposition method
Karbaschi Visual-Search Model Observers in Assessing CT Acquisition Parameters
KR20240000901A (en) Apparatus For Classifying Substance Using Photon Counting CT Based on Nearest Neighbor Algorithm And Method Thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant