KR101982941B1 - Method and Apparatus for removing artifact in CT image using fuzzy neural network - Google Patents

Method and Apparatus for removing artifact in CT image using fuzzy neural network Download PDF

Info

Publication number
KR101982941B1
KR101982941B1 KR1020170173745A KR20170173745A KR101982941B1 KR 101982941 B1 KR101982941 B1 KR 101982941B1 KR 1020170173745 A KR1020170173745 A KR 1020170173745A KR 20170173745 A KR20170173745 A KR 20170173745A KR 101982941 B1 KR101982941 B1 KR 101982941B1
Authority
KR
South Korea
Prior art keywords
data
fuzzy
image
virtual image
virtual
Prior art date
Application number
KR1020170173745A
Other languages
Korean (ko)
Inventor
김희중
조병두
김혜미
김도현
쳔 차오
이민재
Original Assignee
연세대학교 원주산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 원주산학협력단 filed Critical 연세대학교 원주산학협력단
Priority to KR1020170173745A priority Critical patent/KR101982941B1/en
Application granted granted Critical
Publication of KR101982941B1 publication Critical patent/KR101982941B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention relates to a method and an apparatus for removing an artifact from a CT image, and more particularly, to a method and an apparatus for removing an artifact from a CT image using a fuzzy neural network, which acquires raw data obtained by tomography of an object from a photon counting detector, detects artifact data forming a linear shape by converting the raw data including an artifact into polar coordinates, forms output data that converges to a predetermined value by inputting the artifact data to a fuzzy neural network and applying a fuzzy membership function thereto, and obtains correction data by converting the output data into cartesian coordinates, thereby detecting a more accurate artifact by converting an image acquired from the photon counting detector, and providing an image from which the detected artifact is accurately and conveniently removed by using the learning ability of the fuzzy neural network.

Description

퍼지 신경망을 이용한 CT 영상의 허상 제거 방법 및 장치{Method and Apparatus for removing artifact in CT image using fuzzy neural network}Method and apparatus for removing virtual image of CT image using fuzzy neural network {Method and Apparatus for removing artifact in CT image using fuzzy neural network}

본 발명은 CT 영상에서의 허상을 제거하는 방법 및 장치에 관한 것으로서, 특히 퍼지 신경망의 학습 능력을 이용하여 CT 영상에 나타나는 원형의 허상을 제거하는 퍼지신경망을 이용한 CT 영상의 인공물 제거방법 및 장치에 관한 것이다. The present invention relates to a method and apparatus for removing a virtual image from a CT image, and more particularly, to a method and apparatus for removing an artifact of a CT image using a fuzzy neural network that removes a circular virtual image appearing on a CT image using a learning ability of a fuzzy neural network. It is about.

디지털영상을 제공하는 진단용 의료 방사선 영상기기는 기술적인 측면은 물론이고 임상에서의 활용도 역시 눈부신 발전을 하고 있다. 기존의 진단용 의료 방사선 영상기기의 성능향상을 위한 연구는 말할 것도 없고, 기존의 진단방법을 결합한 PET-CT, PET-MR 등 새로운 진단방법의 개발을 위해 많은 연구들이 이루어지고 있다. Diagnostic medical radiographic imaging devices that provide digital imaging are advancing not only in technical aspects but also in clinical applications. Needless to say, many studies are being conducted to develop new diagnostic methods, such as PET-CT and PET-MR, which combine existing diagnostic methods.

진단용 의료 방사선 의료영상기기 중에서도 전산화단층촬영법(이하, 'CT'라 함)는 MRP(Multi Planar Reconstruction)을 이용하여 MR이나 PET 등과 마찬가지로 가로면(transverse plane), 시상면(sagital plane) 및 관상면(coronal plane) 등 여러 기준면의 2차원적인 단층영상 및 3차원 영상을 제공할 뿐만 아니라 콘트라스트 해상도(contrast resolution)가 좋으며, 스캔시간이 짧아서 현재의 의료용 방사선 영상 진단분야에 있어서 아주 중요한 영역을 차지하고 있다. Among CT medical imaging devices, CT scans (hereinafter referred to as 'CT') use MRP (Multi Planar Reconstruction), similar to MR or PET, such as transverse plane, sagittal plane and coronal plane. In addition to providing two-dimensional tomographic and three-dimensional images of various reference planes, such as (coronal plane), the contrast resolution is good, and the scan time is short, so it is a very important area in the current medical radiographic diagnosis field. .

이러한 CT는 여러 개의 다른 각도에서 촬영된 투영이미지(projection image)로부터 얻어진 데이터를 수학적인 방법을 이용하여 X선원과 검출기 사이에 존재하는 물질특성을 공간 분포로 재구성하여 인체 내부의 해부학적 단층영상을 제공한다. CT scans the anatomical tomography image inside the human body by reconstructing the spatial distribution of material properties between the X-ray source and the detector using mathematical methods of data obtained from projection images taken from several different angles. to provide.

정확한 질병을 진단하기 위하여는 영상의 화질이 매우 중요한 인자이며, CT에서 영상의 질이란 인체의 미세구조를 얼마나 명료하고 정확한 구조의 영상으로 시각화할 수 있는 것으로 정의되어 있으며, CT 영상의 질에 영향을 미치는 요소들로는 CT 값의 정확도, 노이즈, 공간분해능과 대조도분해능, 허상(artifact), 선량 그리고 장치의 정확성이라고 할 수 있다. Image quality is a very important factor for accurate disease diagnosis, and image quality in CT is defined as how clear and accurate images of the human microstructure can be visualized and affect the quality of CT images. Factors affecting the accuracy of the CT values are noise, noise, spatial and contrast resolution, artifacts, dose, and device accuracy.

이와 같은 요소들 중 허상(artifact)은 검사 목적과는 관계없이 발생되는 통계적인 오차로 인해 정확한 CT 영상의 구성을 교란하거나 방해하여 영상의 질을 저하시키고 미세부분의 관찰능력을 감소시키는 장해 음영이라고 정의되며, 영상재구성에 사용되는 input data인 projection 영상 자체에도 각 검출기 배열요소 간의 gain의 차이 및 환자의 움직임, 금속류에 의한 산란선, 환자를 투과하는 동안의 X선 beam hardening 및 partial volume effect 등으로 인해 발생되는 환자의 실제 해부학적 구조에 의한 projection 정보와 다른 오차가 포함되어 있기 때문에 이를 재구성한 CT영상에는 허상(artifact)이 나타날 수밖에 없다. 뿐만 아니라 back projection 과정의 수학적 방법에 의해서도 피사체의 정보가 손실되거나 재구성영상의 가장자리 쪽 영상이 흐려지는 등의 허상이 발생한다. Among these factors, artifacts are obstacle shadows that deteriorate the quality of images and reduce the ability to observe microscopic parts by disturbing or obstructing the correct CT image due to statistical errors that occur regardless of the inspection purpose. The projection image itself, which is the input data used for image reconstruction, is defined by differences in gain between each detector array element, patient movement, scattering lines caused by metals, X-ray beam hardening and partial volume effects while penetrating the patient. Because the projection information and other errors caused by the actual anatomical structure of the patient generated due to the error is included in the reconstructed CT image will have to appear artificial (artifact). In addition, a virtual method such as loss of information of a subject or blurring of an edge of a reconstructed image is generated by a mathematical method of a back projection process.

이러한 허상을 제거하기 위하여 Low pass filter, High pass filter 등이 사용되고 있으며, 각각에 대해서도 다양한 종류의 필터가 사용되고 있고, 이들을 서로 결합한 형태의 필터도 사용되고 있다. 그러나 각각의 필터마다 특징이 다르고, 필터의 사용이 CT 영상에 미치는 영향이 매우 크다는 문제점이 있다. In order to remove such a virtual image, a low pass filter, a high pass filter, and the like are used, and various types of filters are used for each, and filters of a combination of them are also used. However, there is a problem that the characteristics of each filter is different, and the use of the filter on the CT image is very large.

또한, 허상을 제거하기 위하여 삼차원 영상을 재구성 하기 이전에 사이노그램(sinogram) 영상에서 허상에 해당하는 세로 줄무늬의 위치를 검출한 다음에 보간법을 이용하여 검출된 허상의 위치값을 대체하는 방법이나, 검출기(detector) 픽셀 자체를 보정하는 방법을 많이 사용하고 있으나, 다양하게 생기는 허상을 정확하게 찾아서 보정하는 과정이 쉽지 않음은 물론, 원본 값을 주변 픽셀 값들의 보간값으로 대체하기 때문에 원본 영상에 대한 정보 손실이 일어난다는 문제점이 있다. Also, before reconstructing the 3D image to remove the virtual image, the position of the vertical stripe corresponding to the virtual image is detected in the sinogram image, and then the position value of the virtual image detected by the interpolation method is replaced. Although many detectors are used to calibrate the pixels themselves, the process of finding and correcting various virtual images is not easy, and it replaces the original values with the interpolation of surrounding pixel values. There is a problem that information loss occurs.

한편, 퍼지로직은 인간의 언어와 같이 정보를 표현하는데 있어서 유용한 수단으로, 신경회로망은 인간의 뇌를 모델링하여 학습에 의해 정보를 저장하고 이용하는 것으로 여러 제어분야에서 효과적으로 이용되고 있으며, 통상적으로 신경망 알고리즘은 학습된 결과를 바탕으로 어떠한 조건, 어떠한 상황 하에서도 결과값을 정확히 예측해야 할 때 사용되며, 패턴 분류나 진단, 예측 등을 위해 신경망 및 퍼지집합 이론을 결합한 적응적 의사결정지원 툴(adaptive decision support tool)인 퍼지 신경망(Fuzzy Neural Network, FNN)이 제안되어 왔다. On the other hand, fuzzy logic is a useful means for expressing information like human language, and neural network is used effectively in various control fields by modeling the human brain and storing and using information by learning. Is used to accurately predict the result under any conditions and conditions based on the learned results. It is an adaptive decision support tool that combines neural network and fuzzy set theory for pattern classification, diagnosis, and prediction. Fuzzy Neural Network (FNN), a support tool, has been proposed.

최근 들어 영상에서 잡음을 제거하거나 어떠한 특징 물체를 검출/인식하는 등 퍼지 신경망이 여러 분야에서 활용하고자 많은 연구들이 진행되고 있는 실정이다. Recently, many studies have been conducted to use fuzzy neural networks in various fields such as removing noise from an image or detecting / recognizing certain feature objects.

1. 대한민국 등록특허 제10-1717433호 '엑스레이 컴퓨터 단층촬영 환경에서 빔 경화현상에 의한 인공물 보정방법'1. Republic of Korea Patent No. 10-1717433 'Article correction method by beam hardening phenomenon in X-ray computed tomography environment'

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서 광자계수검출기로부터 획득한 영상을 변환하여 보다 정확한 허상을 검출하고 퍼지 신경망의 학습 능력을 이용하여 검출된 허상을 정확하고 편리하게 제거한 영상을 제공할 수 있는 퍼지신경망을 이용한 CT 영상의 인공물 제거방법 및 장치를 제공함에 목적이 있다. The present invention has been made to solve the above problems, by converting the image obtained from the photon counting detector to detect a more accurate virtual image and can provide an image that is accurately and conveniently removed the detected virtual image using the learning ability of the fuzzy neural network An object of the present invention is to provide a method and apparatus for removing artifacts from a CT image using a fuzzy neural network.

상기의 목적을 달성하기 위한 본 발명인 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법은 광자계수검출기(photon counting detector)로부터 대상체를 단층 촬영하여 생성된 허상(artifact)을 포함하는 로우데이터를 획득하는 단계; 상기 로우데이터를 극좌표(polar coordination) 변환하여 선 형태를 이루는 허상데이터를 검출하는 단계; 상기 허상데이터를 회색도 변환(gray level transformation)하여 선 형태를 이루는 허상을 강조하는 단계; 회색도 변환된 허상데이터를 퍼지 신경망(fuzzy neural network)에 입력하고 퍼지 소속함수를 적용하여 일정값에 수렴하는 출력데이터를 형성하는 단계; 및 상기 출력데이터를 직교좌표(cartesian coordinate) 변환하여 보정데이터를 획득하는 단계를 포함한다.In accordance with another aspect of the present invention, there is provided a method of removing a virtual image of a CT image using a fuzzy neural network, the method including: obtaining raw data including an artifact generated by tomography of an object from a photon counting detector; Detecting the virtual data having a line shape by converting the raw data by polar coordination; Emphasizing the virtual image forming a line by gray level transformation of the virtual image data; Inputting grayscale-converted virtual image data into a fuzzy neural network and applying fuzzy membership function to form output data that converges to a predetermined value; And converting the output data into Cartesian coordinates to obtain correction data.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

상술한 본 발명인 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법 중 어느 한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로 구성한다. 기록매체는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크 및 광 데이터 저장장치 중 적어도 하나인 것을 특징으로 한다.The above-described method for removing virtual images of CT images using the fuzzy neural network of the present invention is composed of a computer-readable recording medium having recorded thereon a program for executing on a computer. The recording medium is at least one of a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, and an optical data storage device.

한편, 상기의 목적을 달성하기 위한 본 발명인 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치는 광자계수검출기(photon counting detector)로부터 대상체를 단층 촬영하여 생성된 허상(artifact)을 포함하는 로우데이터를 획득하는 영상획득부; 상기 로우데이터를 극좌표(polar coordination) 변환하여 선 형태를 이루는 허상데이터를 검출하고, 상기 허상데이터를 이용하여 형성된 출력데이터를 직교좌표(cartesian coordinate) 변환하여 보정데이터를 획득하는 영상변환부; 상기 허상데이터를 회색도 변환(gray level transformation)하여 선 형태를 이루는 허상을 강조하는 영상보정부; 및 회색도 변환된 허상데이터를 퍼지 신경망(fuzzy neural network)에 입력하고 퍼지 소속함수를 적용하여 일정값에 수렴하는 출력데이터를 형성하는 영상처리부를 포함한다.On the other hand, the virtual image removal apparatus of the CT image using the fuzzy neural network of the present invention for achieving the above object to obtain the raw data including the artifact generated by tomography of the object from the photon counting detector (photon counting detector) Image acquisition unit; An image converter configured to detect the virtual data having a linear shape by converting the raw data into polar coordinates, and converting the output data formed using the virtual data into Cartesian coordinates to obtain correction data; An image compensator for emphasizing the virtual image forming a line by gray level transformation of the virtual image data; And an image processor configured to input grayscale-converted virtual image data into a fuzzy neural network and apply fuzzy membership function to form output data that converges to a predetermined value.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

본 발명에 따르면, 광자계수검출기로부터 획득한 영상을 변환하여 보다 정확한 허상을 검출하고 퍼지 신경망을 통해 검출된 허상을 정확하고 편리하게 제거할 수 있으므로, 사용자에게 제공되는 영상의 질을 향상시킬 수 있어 진단효율을 높일 수 있다. According to the present invention, it is possible to detect a more accurate virtual image by converting the image obtained from the photon count detector and to remove the detected virtual image accurately and conveniently through the fuzzy neural network, thereby improving the quality of the image provided to the user The diagnostic efficiency can be improved.

또한, 이를 이용하여 상대적으로 면적이 넓은 흉부, 뿐만 아니라 무릎관절, 손등 뼈, 부비동, 유방 등 여러 신체에 대한 정확한 진단을 내릴 수 있으며, 퍼지 신경망을 통해 축적된 데이터를 다양한 의료 분야에서 활용할 수 있을 것이다. In addition, it can be used to make accurate diagnosis on various parts of the chest, as well as knee joints, back bones of the hands, sinuses, breasts, etc., and the data accumulated through fuzzy neural networks can be used in various medical fields. will be.

도 1은 본 발명에 의한 퍼지신경망을 이용한 CT 영상의 인공물 제거 장치를 나타내는 도면,
도 2는 본 발명에 적용되는 로우데이터를 극좌표 변환한 상태를 보여주는 도면,
도 3은 본 발명에 적용되는 퍼지 신경망의 구조를 보여주는 도면,
도 4는 본 발명에 적용되는 픽셀 연결성 작업의 예를 보여주는 도면,
도 5는 본 발명에 적용되는 허상데이터에 회색도 변환과 픽셀 연결성 작업을 수행한 상태를 보여주는 도면,
도 6은 본 발명에 적용되는 허상데이터에 하이브리드 보간법을 수행한 상태를 보여주는 도면,
도 7 내지 도 9는 본 발명에 의한 퍼지신경망을 이용한 CT 영상의 인공물 제거 방법의 일 실시예를 보여주는 도면.
1 is a view showing an apparatus for removing artifacts of CT images using a fuzzy neural network according to the present invention,
2 is a view showing a state in which polar data is converted to raw data applied to the present invention;
3 is a view showing the structure of a fuzzy neural network applied to the present invention;
4 is a view showing an example of a pixel connectivity operation applied to the present invention;
FIG. 5 is a view illustrating a state in which gray scale conversion and pixel connectivity are performed on virtual image data applied to the present invention; FIG.
6 is a diagram illustrating a state in which hybrid interpolation is performed on virtual image data applied to the present invention;
7 to 9 are views showing an embodiment of a method for removing artifacts of CT images using the fuzzy neural network according to the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐, 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and methods of achieving them will be apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various different forms, and only the embodiments make the disclosure of the present invention complete, and the general knowledge in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Throughout the specification, like reference numerals refer to like elements.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. Terms used herein will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나, 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the term "part" as used herein refers to a hardware component, such as software, FPGA or ASIC, and "part" plays certain roles. But wealth is not limited to software or hardware. The 'unit' may be configured to be in an addressable storage medium, or may be configured to play one or more processors. Thus, as an example, a "part" refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, Subroutines, segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. The functionality provided within the components and "parts" may be combined into a smaller number of components and "parts" or further separated into additional components and "parts".

본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 "전송" 또는 "제공"하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when one component "transmits" or "provides" data or a signal to another component, the component may directly transmit the data or signal to another component, and at least one another This means that a component can transmit data or a signal to another component.

아래에서는, 첨부한 도면을 참고하여 개시된 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들에 한정되지 않는다. 그리고, 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, with reference to the accompanying drawings will be described in detail to be easily carried out by those of ordinary skill in the art to which the present invention pertains. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention.

본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들 및 3차원 영상에 있어서의 복셀들)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 CT 촬영 장치에 의해 획득된 대상체의 의료 영상 등을 포함할 수 있다.As used herein, "image" may mean multi-dimensional data composed of discrete image elements (eg, pixels in a 2D image and voxels in a 3D image). For example, the image may include a medical image of the object obtained by the CT imaging apparatus.

본 명세서에서 "CT(Computed Tomography) 영상"이란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며, 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.In the present specification, a “CT (Computed Tomography) image” may mean a composite image of a plurality of X-ray images obtained by rotating about at least one axis of an object and photographing the object.

본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부 또는 전부일 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 및 혈관 중 적어도 하나를 포함할 수 있다. 또한, "대상체"는 팬텀(phantom)일 수도 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.As used herein, an "object" may be a person or an animal, or part or all of a person or an animal. For example, the subject may include at least one of organs such as the liver, heart, uterus, brain, breast, abdomen, and blood vessels. In addition, the "object" may be a phantom. Phantom means a material having a volume very close to the density and effective atomic number of an organism, and may include a sphere phantom having properties similar to the body.

본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료 영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.As used herein, a "user" may be a doctor, a nurse, a clinical pathologist, a medical imaging professional, or the like, and may be a technician who repairs a medical device, but is not limited thereto.

도 1은 본 발명에 의한 퍼지신경망을 이용한 CT 영상의 인공물 제거 장치를 나타내는 도면이며, 퍼지신경망을 이용한 CT 영상의 인공물 제거 장치는 광자계수검출기(100), 허상제거장치(200)를 포함하고, 상기 허상제거장치(200)는 영상획득부(210), 영상변환부(220), 영상처리부(240)를 포함하며, 영상보정부(230)를 더 포함할 수 있다. 1 is a view showing an apparatus for removing an artifact of a CT image using a fuzzy neural network according to the present invention, the apparatus for removing an artifact of a CT image using a fuzzy neural network includes a photon count detector 100, a virtual image removal device 200, The virtual image removing apparatus 200 may include an image obtaining unit 210, an image converting unit 220, and an image processing unit 240, and may further include an image compensating unit 230.

상기 광자계수검출기(photon counting detector, 100)는 사용자가 대상체에 대하여 단층 촬영한 CT 영상을 제공받기 위한 것으로, 대상체를 통해 전송된 X-선을 감지하고, 감지된 X-선의 강도에 상응하게 전기 신호를 생성한 다음, 이를 디지털 신호화하여 대상체를 단층 촬영한 로우데이터(raw data)를 생성한다. 상기 광자계수검출기(100)는 통신망을 통해 로우데이터를 영상획득부(210)로 전송한다. The photon counting detector 100 is for receiving a CT image obtained by a user tomography of an object. The photon counting detector 100 detects an X-ray transmitted through the object, and detects an X-ray transmitted through the object. After generating a signal, the digital signal is generated to generate raw data obtained by tomography of the object. The photon count detector 100 transmits the raw data to the image acquisition unit 210 through a communication network.

상기 통신망은 대용량, 장거리 음성 및 데이터 서비스가 가능한 대형 통신망의 고속 기간 망인 통신망이며, 인터넷(Internet) 또는 고속의 멀티미디어 서비스를 제공하기 위한 차세대 유선 및 무선 망일 수 있다. 유무선 통신망이 이동통신망일 경우 동기식 이동 통신망일 수도 있고, 비동기식 이동 통신망일 수도 있다. 비동기식 이동 통신망의 일 실시 예로서, WCDMA(Wideband Code Division Multiple Access) 방식의 통신망을 들 수 있다. 이 경우 도면에 도시되진 않았지만, 유무선 통신망은 RNC(Radio Network Controller)을 포함할 수 있다. 한편, WCDMA망을 일 예로 들었지만, 3G LTE망, 4G망 등 차세대 통신망, 그 밖의 IP를 기반으로 한 IP망일 수 있다. 상기 통신망은 광자계수검출기(100) 및 허상제거장치(200)를 비롯하여 본 발명에 포함된 데이터베이스, 인증서버, 그 밖의 시스템 상호 간의 신호 및 데이터를 상호 전달하는 역할을 한다.The communication network is a high-speed network of a large communication network capable of large-capacity, long-distance voice and data services, and may be a next-generation wired and wireless network for providing an Internet or high-speed multimedia service. When the wired / wireless communication network is a mobile communication network, it may be a synchronous mobile communication network or an asynchronous mobile communication network. An example of an asynchronous mobile communication network is a communication network of a wideband code division multiple access (WCDMA) scheme. In this case, although not shown in the figure, the wired or wireless communication network may include a Radio Network Controller (RNC). Meanwhile, although the WCDMA network is taken as an example, it may be an IP network based on a next generation communication network such as 3G LTE network, 4G network, or other IP. The communication network plays a role of mutually transferring signals and data between a database, an authentication server, and other systems included in the present invention, including the photon counting detector 100 and the virtual image removing apparatus 200.

상기 영상획득부(210)는 광자계수검출기(100)로부터 대상체를 단층 촬영한 로우데이터를 제공받고, 제공받은 로우데이터를 영상변환부(220)로 전송하는 역할을 한다. 이때, 상기 영상획득부(210)는 광자계수검출기(100)로부터 X-ray를 복수 개의 에너지 대역 별로 구분하여 검출하여, 상기 복수 개의 에너지 대역 별로 대상체에 대한 로우데이터를 획득하여, 해당 로우데이터를 영상변환부(220)로 전송할 수 있다. The image acquisition unit 210 receives raw data obtained by tomography imaging an object from the photon counting detector 100 and transmits the received raw data to the image converter 220. In this case, the image acquisition unit 210 classifies and detects X-rays from the photon count detector 100 for each of a plurality of energy bands, obtains raw data for the object for each of the plurality of energy bands, and selects the corresponding low data. The image converter 220 may transmit the image.

일 예로, 상기 광자계수검출기(100)는 10keV ~ 22keV의 제1 대역, 22keV ~ 36keV의 제2 대역 및 제36keV ~ 50keV의 제3 대역으로 구분하여 X-ray를 검출할 수 있으며, 상기 영상획득부(210)는 10keV ~ 22keV의 제1 대역, 22keV ~ 36keV의 제2 대역 및 제36keV ~ 50keV의 제3 대역으로 구분된 대상체에 대한 로우데이터들을 획득할 수 있다. For example, the photon counting detector 100 may detect an X-ray by dividing the first band of 10 keV to 22 keV, the second band of 22 keV to 36 keV, and the third band of 36 keV to 50 keV, and acquire the image. The unit 210 may obtain raw data for an object classified into a first band of 10 keV to 22 keV, a second band of 22 keV to 36 keV, and a third band of 36 keV to 50 keV.

한편, 도 2는 본 발명에 적용되는 로우데이터를 극좌표 변환한 상태를 보여주는 도면이며, 상기 영상변환부(220)는 도 2에 도시된 바와 같이 허상(artifact)을 포함하는 로우데이터를 극좌표(polar coordination) 변환하고 선 형태를 이루는 허상데이터를 검출한다. FIG. 2 is a view illustrating a state in which polar data is converted to polar data applied to the present invention, and the image converter 220 polarizes raw data including an artifact as shown in FIG. 2. coordination) It detects virtual data which is transformed and forms a line.

이때, Morphological edge detection operator를 통해 아래의 수학식 1을 활용하여 극좌표로 변환된 로우데이터에서의 선 형태를 이루는 허상데이터를 검출할 수 있으며, 수학식 1에서의 B는 구조 요소를 의미하며, A는 적용할 영상을 의미한다.At this time, the morphological edge detection operator can detect the virtual data in the form of a line in the raw data converted to polar coordinates by using Equation 1 below, where B in Equation 1 represents a structural element, A Means the image to be applied.

Figure 112017125540122-pat00001
Figure 112017125540122-pat00001

또한, 상기 영상변환부(220)는 추후 설명할 영상처리부(240)에서 형성된 출력데이터를 직교좌표(cartesian coordinate) 변환하여 보정데이터를 획득한다. 즉, 대상체를 단층 촬영한 로우데이터를 극좌표 변환하여 허상을 제거하는 작업을 수행한 후, 이를 다시 직교좌표 변환하여 보정데이터를 통해 허상이 제거된 사용자에게 제공되는 영상의 질을 향상시킬 수 있어 진단효율을 높일 수 있게 된다. In addition, the image converter 220 obtains correction data by converting Cartesian coordinates of output data formed by the image processor 240 to be described later. That is, after performing the operation of removing the virtual image by polar coordinate transformation of the raw data of the tomography image of the object, the image is converted to Cartesian coordinates again to improve the quality of the image provided to the user whose virtual image is removed through the correction data. Efficiency can be increased.

이를 위해 본 발명인 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치에서의 영상처리부(240)는 영상변환부(220)를 통해 보다 정화하게 허상이 검출된 허상데이터를 전송받아 이를 퍼지 신경망(fuzzy neural network)에 입력하고 퍼지 소속함수를 적용하여 일정값에 수렴하는 출력데이터를 형성하여 검출된 허상을 정확하고 편리하게 제거한다. To this end, the image processing unit 240 in the virtual image removal apparatus of the CT image using the fuzzy neural network of the present invention receives the virtual data detected by the image conversion unit 220 to purify the fuzzy neural network (fuzzy neural network) The input image is input to the fuzzy membership function and the output data converges to a certain value to accurately and conveniently remove the detected virtual image.

도 3은 본 발명에 적용되는 퍼지 신경망의 구조를 보여주는 도면이며, 상기 퍼지 신경망은 도 3에 도시된 바와 같이 입력계측(input layer), 퍼지분할계층(fuzzy partition layer), 전가산계층(front combination layer), 추론계층(inference later) 및 출력계층(output layer)를 포함할 수 있다. FIG. 3 is a diagram illustrating a structure of a fuzzy neural network according to the present invention, wherein the fuzzy neural network is an input measurement, a fuzzy partition layer, and a front combination layer as shown in FIG. 3. layer, inference layer, and output layer.

상기 입력계층은 n개의 입력노드로 구성되며, 각 노드로 n개의 허상데이터를 입력받는다. 또한, 상기 입력계층이 입력받는 허상데이터는 영상변환부(220)에 의해 극좌표 변환만 이루어진 허상데이터일 수도 있으나, 극좌표 변환이 이루어지고 추후 설명할 영상보정부(230)에 의해 보정이 이루어진 허상데이터일 수 있다. The input layer is composed of n input nodes and receives n virtual data from each node. In addition, the virtual image data input by the input layer may be virtual image data obtained by converting only polar coordinates by the image converting unit 220, but the virtual image data is corrected by the image correction unit 230 to be described later. Can be.

상기 퍼지분할계층은 n개의 허상데이터에 소속함수를 적용하여 다수 개의 퍼지데이터로 이루어진 입력 퍼지집합을 형성하며, 일 예로, 도 3에 도시된 바와 같이 하나의 허상데이터는 5개의 입력 퍼지집합을 형성할 수 있다. The fuzzy partition layer applies an input function to n virtual data to form an input fuzzy set composed of a plurality of fuzzy data. For example, as shown in FIG. 3, one virtual data forms five input fuzzy sets. can do.

상기 전가산계층은 적어도 2개의 허상데이터에 의해 형성된 입력 퍼지집합을 특정 퍼지데이터와의 거리에 따라 소속 정도를 부여하여 퍼지데이터를 분류한다. 이에 따라, 도 3에 도시된 바와 같이 2개의 허상데이터가 n개보다 많은 m개의 퍼지집합을 형성하였을 경우, 상기 퍼지데이터는 m개보다 많은 p개를 형성한다. The full addition layer classifies the fuzzy data by assigning the input fuzzy set formed by the at least two virtual image data according to the distance to the specific fuzzy data. Accordingly, as shown in FIG. 3, when two virtual data forms more than n m fuzzy sets, the fuzzy data forms more than m p pieces.

상기 추론계층은 분류된 퍼지데이터에 퍼지 규칙베이스(fuzzy rule base)을 적용하여 추론데이터를 선별하여 출력 퍼지집합을 형성한다. 상기 퍼지 규칙베이스는 퍼지 이론의 공식과 규칙을 의미하며, 출력 퍼지집합은 p개인 퍼지데이터보다 적은 q개를 형성하게 된다. The inference layer selects the inference data by applying a fuzzy rule base to the classified fuzzy data to form an output fuzzy set. The fuzzy rulebase means a formula and a rule of fuzzy theory, and the output fuzzy set forms less than q fuzzy data having p.

상기 출력계층은 출력 퍼지집합에 대하여 비퍼지화를 통해 출력데이터를 형성하며, 상기 출력데이터는 일정값에 수렴하게 된다. The output layer forms output data through unpurging the output fuzzy set, and the output data converges to a predetermined value.

한편, 앞서 설명한 바와 같이 본 발명인 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치에는 허상데이터를 보정할 수 있는 영상보정부(230)를 더 포함할 수 있다. Meanwhile, as described above, the apparatus for removing a virtual image of a CT image using the fuzzy neural network of the present invention may further include an image corrector 230 capable of correcting the virtual image data.

상기 영상보정부(230)는 허상데이터를 회색도 변환(gray level transformation)하여 선 형태를 이루는 허상을 강조하는 기능을 수행할 수 있다. 즉, 허상데이터 중 허상의 농도 분포 또는 허상을 제외한 부분의 농도 분포를 특정 농도 분포로 바뀌도록 각 점의 농도를 변화시킴으로써, 선 형태를 이루는 허상이 도드라지도록 할 수 있다. The image correction unit 230 may perform a function of emphasizing the virtual image forming a line by gray level transformation of the virtual image data. That is, by changing the concentration of each point so that the concentration distribution of the virtual image or the concentration distribution of the portions other than the virtual image is changed to a specific concentration distribution, the virtual image forming a line may be raised.

도 4는 본 발명에 적용되는 픽셀 연결성 작업의 예를 보여주는 도면이며, 상기 영상보정부(230)는 도 4에 도시된 바와 같이 상기 허상데이터의 특징점을 추출하고, 상기 특징점의 연결형태를 파악하여 의사특징점을 선별하여 제거하는 픽셀 연결성(pixel connectivity) 기능을 수행할 수 있다. 여기서, 의사특징점이란 특징점으로 추출된 특징이지만 실제 영상에서는 특징점이 아닌 것을 의미한다. FIG. 4 is a diagram illustrating an example of a pixel connectivity operation applied to the present invention, and the image compensator 230 extracts a feature point of the virtual image data as shown in FIG. 4 and grasps a connection form of the feature point. The pixel connectivity function of selecting and removing pseudo-feature points may be performed. Here, the pseudo feature point means a feature extracted as a feature point but not a feature point in an actual image.

도 4를 참고하여 의사특징점을 제거하는 과정의 일 예에 대하여 살펴보면, 허상데이터(original image)에서 특징점(whole 1, whole 2, whole 3)을 추출하고, 4 connectivity를 적용하여 whole 2의 특징점을 제외한 whole 1 및 whole 3의 특징점을 의사특징점으로 선별하여 제거한다. 이후, 2 connectivity를 적용하여 whole 2의 특징점을 의사특징점으로 선별하여 제거함으로써, 최종적으로 연결성을 가진 픽셀인 whole 1에 대한 extracted line을 형성한다. Referring to an example of a process of removing pseudo-feature points with reference to FIG. 4, feature points (whole 1, whole 2, whole 3) are extracted from the virtual image, and 4 connectivity is applied to detect feature points. The feature points of whole 1 and whole 3 excepted are removed as pseudo feature points. Then, by applying 2 connectivity, the feature points of whole 2 are removed by pseudo feature points to form an extracted line for whole 1, which is a pixel having connectivity.

도 5는 본 발명에 적용되는 허상데이터에 회색도 변환과 픽셀 연결성 작업을 수행한 상태를 보여주는 도면이며, 상기 영상보정부(230)에 의해 회색도 변환 기능과, 픽셀 연결성 기능을 모두 수행하면 도 5와 같은 결과를 형성할 수 있다. FIG. 5 is a view illustrating a state in which gray level conversion and pixel connectivity are performed on virtual image data applied to the present invention, and the image correction unit 230 performs both gray level conversion and pixel connectivity. Can produce the same result as 5.

또한, 상기 영상보정부(230)는 알고 있는 데이터 값들을 이용하여 모르는 값을 추정하는 방법인 보간법(interpolation)을 수행할 수 있다. 상기 영상보정부(230)는 다양한 종류의 보간법을 수행할 수 있으며, 일 예로 허상데이터에서 대상픽셀을 선별하고 상기 대상픽셀을 둘러싸고 있는 다른 픽셀들의 평균값을 대상픽셀에 취하는 고등차수 보간(bicubic-interpolation)과, 다항식으로 이루어진 근사 함수를 이용하여 임의의 위치에 대한 함수값을 구하는 다항 근사화 보간(polynomial fitting-interpolation)을 결합한 하이브이드 보간법을 수행할 수 있다. Also, the image interpolation 230 may perform interpolation, which is a method of estimating an unknown value using known data values. The image interpolation 230 may perform various types of interpolation methods. For example, high-order interpolation (bicubic-interpolation) that selects a target pixel from virtual data and takes an average value of other pixels surrounding the target pixel in the target pixel. ), And a hybrid interpolation method that combines polynomial fitting-interpolation to obtain a function value for an arbitrary position using an approximation function composed of polynomials.

고등차수 보간의 경우, 이미지 및 영상의 크기 변화시에 수행되는 것으로서, 예를 들어 확대시에 확대에 의해 생겨난 여분의 공간을 계산하여 처리하는 것이며, 이는 다른 종류의 보간 기법에 비해 계산 방법이 비교적 간단하면서도 좋은 영상 확장을 활 수 있다. 또한, 고등차수 보간은 나타내려는 픽셀을 둘러싸고 있는 15개(4X4) 픽셀들이 가지는 색의 데이터(RGB 또는 YCbCr) 값들의 평균을 취하는 것이며, 나타내려고 하는 대상픽셀의 참조가 되는 다른 픽셀들의 값도 변화하기는 하나 그 변화값이 매우 작으므로 원본 영상에 대한 정보 손실을 최소할 수 있다. Higher-order interpolation, which is performed when the image and / or image is changed in size, calculates and processes the extra space created by magnification during enlargement, for example. Simple but good video expansion. Higher-order interpolation also takes the average of the data (RGB or YCbCr) values of the colors of the 15 (4X4) pixels surrounding the pixels to be displayed, and changes the values of other pixels that are the reference of the target pixel to be displayed. However, since the change is very small, it is possible to minimize the loss of information on the original image.

다항 근사화 보간의 경우 1차, 2차, 3차 다항식 등을 이용하여 작업을 수행할 수 있으며, 본 발명에서는 고등차수 보간을 함께 수행하므로 상호 보간 방식에 대한 보완이 이루어질 수 있다. 도 6은 본 발명에 적용되는 허상데이터에 하이브리드 보간법을 수행한 상태를 보여주는 도면이며, 이를 통해 보정된 허상데이터를 얻을 수 있다. In the case of polynomial approximation interpolation, the operation may be performed using a first order, a second order, a third order polynomial, and the like. In the present invention, since the higher order interpolation is performed together, the interpolation may be complemented. FIG. 6 is a diagram illustrating a state in which hybrid interpolation is performed on virtual image data applied to the present invention, and thus corrected virtual image data can be obtained.

한편, 도 7 내지 도 9는 본 발명에 의한 퍼지신경망을 이용한 CT 영상의 인공물 제거 방법의 일 실시예를 보여주는 도면이며, 이하에서는 도 7 내지 도 9를 참고하여 광자계수검출기(100)로부터 로우데이터를 획득하여 허상이 제거된 보정데이터를 생성하는 과정에 대하여 구체적으로 살펴본다.7 to 9 are views illustrating an embodiment of a method for removing an artifact of a CT image using a fuzzy neural network according to the present invention. Hereinafter, the low data from the photon count detector 100 will be described with reference to FIGS. 7 to 9. The process of generating the correction data from which the virtual image is removed by acquiring the above will be described in detail.

먼저, 영상보정부(230)가 포함되지 않은 본 발명에 의한 퍼지신경망을 이용한 CT 영상의 인공물 제거 방법에 대하여 살펴보면, 영상획득부(210)는 광자계수검출기(100)로부터 대상체를 단층 촬영한 로우데이터를 획득한다(S10). 상기 (S10) 단계에서, 상기 영상획득부(210)는 광자계수검출기(100)로부터 X-ray를 복수 개의 에너지 대역 별로 구분하여 검출하여, 상기 복수 개의 에너지 대역 별로 대상체에 대한 로우데이터를 획득할 수 있다. First, referring to a method of removing an artifact of a CT image using a fuzzy neural network according to the present invention, in which the image compensator 230 is not included, the image acquisition unit 210 is a row obtained by tomography imaging an object from the photon count detector 100. Acquire data (S10). In the step (S10), the image acquisition unit 210 to detect the X-ray by a plurality of energy bands from the photon counting detector 100 to obtain the raw data for the object for each of the plurality of energy bands Can be.

상기 영상보정부(230)는 허상을 포함하는 로우데이터를 영상변환부(220)로 전송하고(S20), 상기 영상변환부(220)는 로우데이터를 극좌표 변환하고 선 형태를 이루는 허상데이터를 검출한다(S30).The image correction unit 230 transmits the raw data including the virtual image to the image converting unit 220 (S20), and the image converting unit 220 converts the raw data to polar coordinates and detects the virtual image data having a line shape. (S30).

상기 영상변환부(220)는 검출된 허상데이터를 영상처리부(240)로 전송하며(S40), 상기 영상처리부(240)는 허상데이터를 퍼지 신경망(fuzzy neural network)에 입력하고 퍼지 소속함수를 적용하여 일정값에 수렴하는 출력데이터를 형성한다(S70). The image converting unit 220 transmits the detected virtual image data to the image processing unit 240 (S40), and the image processing unit 240 inputs the virtual image data to a fuzzy neural network and applies a fuzzy membership function. To form output data that converges to a predetermined value (S70).

보다 구체적으로, 도 8에 도시된 바와 같이 상기 영상변환부(220)는 허상데이터에 소속함수를 적용하여 다수 개의 퍼지데이터로 이루어진 입력 퍼지집합을 형성하고(S71), 적어도 2개의 허상데이터에 의해 형성된 입력 퍼지집합을 특정 퍼지데이터와의 거리에 따라 소속 정도를 부여하여 퍼지데이터를 분류한 다음(S72), 분류된 퍼지데이터가 퍼지 규칙베이스(fuzzy rule base)에 의해 추론데이터를 선별하여 출력 퍼지집합을 형성한 후(S73), 상기 출력 퍼지집합에 대하여 비퍼지화를 통해 출력데이터를 형성할 수 있다(S74).More specifically, as shown in FIG. 8, the image converter 220 forms an input fuzzy set composed of a plurality of fuzzy data by applying a function of belonging to the virtual image data (S71), and by at least two virtual image data. After classifying fuzzy data by assigning degree of belonging to the formed fuzzy set according to distance from specific fuzzy data (S72), the classified fuzzy data selects inference data by fuzzy rule base and output fuzzy After the set is formed (S73), the output data may be formed through unpurging the output fuzzy set (S74).

이러한 과정을 통해 형성된 출력데이터는 영상변환부(220)로 전송되고(S80), 상기 영상변환부(220)는 전송된 출력데이터를 직교좌표(cartesian coordinate) 변환하여 보정데이터를 획득한다(S90). The output data formed through this process is transmitted to the image conversion unit 220 (S80), and the image conversion unit 220 obtains correction data by converting the transmitted output data in Cartesian coordinates (S90). .

한편, 도 9에 도시된 바와 같이 상기 (S70) 단계 이전에, 영상보정부(230)가 영상변환부(220)로부터 허상데이터를 전송받아(S40), 허상데이터를 보정하여 영상처리부(240)로 보정된 허상데이터를 전송할 수 있다(S60).Meanwhile, as shown in FIG. 9, before the step S70, the image compensator 230 receives the virtual image data from the image converter 220 (S40), and corrects the virtual image data to correct the image processor 240. The corrected virtual data may be transmitted (S60).

이때, 허상데이터의 보정은 상기 허상데이터를 회색도 변환(gray level transformation)하여 선 형태를 이루는 허상을 강조하는 방식으로 이루어질 수 있으며(S51), 상기 허상데이터의 특징점을 추출하고, 상기 특징점의 연결형태를 파악하여 의사특징점을 선별하여 제거하는 방식으로 이루어질 수 있다(S52). 또한, 상기 허상데이터에서 대상픽셀을 선별하고 상기 대상픽셀을 둘러싸고 있는 다른 픽셀들의 평균값을 대상픽셀에 취하는 고등차수 보간(bicubic-interpolation)과, 다항식으로 이루어진 근사 함수를 이용하여 임의의 위치에 대한 함수값을 구하는 다항 근사화 보간(polynomial fitting-interpolation)을 결합한 하이브이드 보간법을 통해 허상데이터를 보정하는 방식으로 이루어질 수 있다(S53). At this time, the correction of the virtual image data may be performed in a manner of emphasizing the virtual image forming a line by gray level transformation of the virtual image data (S51), extracting a feature point of the virtual image data, and connecting the feature points. It can be made in such a way to grasp the shape by removing the pseudo-feature points (S52). In addition, a function for an arbitrary position is selected by using a high-order interpolation and a polynomial approximation function that selects a target pixel from the virtual data and takes an average value of other pixels surrounding the target pixel. The virtual data may be corrected through a hybrid interpolation method in which polynomial fitting-interpolation is obtained (S53).

상기에서 설명한 허상데이터의 보정 방식은 모두가 수행될 수 있음은 물론, 적어도 하나의 보정 방식이 수행될 수도 있다. All of the above-described correction method of the virtual image data may be performed, and at least one correction method may be performed.

상기에서 설명한 본 발명은 광자계수검출기(100)로부터 획득한 영상에서 보다 정확한 허상을 검출하고 검출된 허상을 정확하고 편리하게 제거할 수 있으므로, 이를 이용하여 상대적으로 면적이 넓은 흉부, 뿐만 아니라 무릎관절, 손등 뼈, 부비동, 유방 등 여러 신체에 대한 정확한 진단을 내릴 수 있으며, 퍼지 신경망을 통해 축적된 데이터를 다양한 의료 분야에서 활용할 수 있을 것이다. Since the present invention described above can detect a more accurate virtual image from the image acquired from the photon counting detector 100 and can remove the detected virtual image accurately and conveniently, using this, a relatively wide chest, as well as a knee joint It is possible to make accurate diagnoses of various bodies such as bones of the hands, bones of the hands, sinuses and breasts, and the data accumulated through the fuzzy neural network can be utilized in various medical fields.

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The invention can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.

또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.

100 : 광자계수검출기
200 : 허상제거장치
210 : 영상획득부
220 : 영상변환부
230 : 영상보정부
240 : 영상처리부
100: photon count detector
200: virtual image removal device
210: image acquisition unit
220: video conversion unit
230: Video Compensation
240: image processing unit

Claims (13)

광자계수검출기(photon counting detector)로부터 대상체를 단층 촬영하여 생성된 허상(artifact)을 포함하는 로우데이터를 획득하는 단계;
상기 로우데이터를 극좌표(polar coordination) 변환하여 선 형태를 이루는 허상데이터를 검출하는 단계;
상기 허상데이터를 회색도 변환(gray level transformation)하여 선 형태를 이루는 허상을 강조하는 단계;
회색도 변환된 허상데이터를 퍼지 신경망(fuzzy neural network)에 입력하고 퍼지 소속함수를 적용하여 일정값에 수렴하는 출력데이터를 형성하는 단계; 및
상기 출력데이터를 직교좌표(cartesian coordinate) 변환하여 보정데이터를 획득하는 단계를 포함하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법.
Obtaining raw data including an artifact generated by tomography of an object from a photon counting detector;
Detecting the virtual data having a line shape by converting the raw data by polar coordination;
Emphasizing the virtual image forming a line by gray level transformation of the virtual image data;
Inputting grayscale-converted virtual image data into a fuzzy neural network and applying fuzzy membership function to form output data that converges to a predetermined value; And
And converting the output data into Cartesian coordinates to obtain correction data.
제1항에 있어서, 상기 출력데이터를 형성하는 단계는,
상기 허상데이터에 소속함수를 적용하여 다수 개의 퍼지데이터로 이루어진 입력 퍼지집합을 형성하는 단계;
적어도 2개의 허상데이터에 의해 형성된 입력 퍼지집합을 특정 퍼지데이터와의 거리에 따라 소속 정도를 부여하여 퍼지데이터를 분류하는 단계;
분류된 퍼지데이터가 퍼지 규칙베이스(fuzzy rule base)에 의해 추론데이터를 선별하여 출력 퍼지집합을 형성하는 단계; 및
상기 출력 퍼지집합에 대하여 비퍼지화를 통해 출력데이터를 형성하는 단계;
를 포함하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법.
The method of claim 1, wherein the forming of the output data comprises:
Applying an affiliation function to the virtual image data to form an input fuzzy set consisting of a plurality of fuzzy data;
Classifying the fuzzy data by assigning the input fuzzy set formed by the at least two virtual data to the degree of belonging according to the distance to the specific fuzzy data;
Selecting the inferred data by the classified fuzzy data by a fuzzy rule base to form an output fuzzy set; And
Forming output data through unpurging the output fuzzy set;
Virtual image removal method of the CT image using a fuzzy neural network, characterized in that it comprises a.
삭제delete 제1항에 있어서, 상기 출력데이터를 형성하는 단계 이전에,
상기 회색도 변환된 허상데이터에서 특징점을 추출하고, 추출된 상기 특징점의 연결형태를 파악하여 의사특징점을 선별하여 제거하는 단계를 더 포함하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법.
The method of claim 1, wherein before forming the output data,
And extracting a feature point from the gray degree converted virtual image data, and identifying and removing a pseudo feature point by identifying a connection form of the extracted feature points.
제1항에 있어서, 상기 출력데이터를 형성하는 단계 이전에,
상기 회색도 변환된 허상데이터에서 대상픽셀을 선별하고 상기 대상픽셀을 둘러싸고 있는 다른 픽셀들의 평균값을 대상픽셀에 취하는 고등차수 보간(bicubic-interpolation)과, 다항식으로 이루어진 근사 함수를 이용하여 임의의 위치에 대한 함수값을 구하는 다항 근사화 보간(polynomial fitting-interpolation)을 결합한 하이브이드 보간법을 통해 허상데이터를 보정하는 단계를 더 포함하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법.
The method of claim 1, wherein before forming the output data,
A target pixel is selected from the grayscale transformed virtual image data, and a high-order interpolation that takes an average value of other pixels surrounding the target pixel at the target pixel and an approximation function composed of polynomials are used at arbitrary positions. The virtual image data removal method using the fuzzy neural network, characterized in that it further comprises the step of correcting the virtual image data through a hybrid Hid interpolation combined with polynomial fitting-interpolation to obtain a function value for.
제1항에 있어서, 상기 로우데이터를 획득하는 단계는,
상기 광자계수검출기로부터 X-ray를 복수 개의 에너지 대역 별로 구분하여 검출하여, 상기 복수 개의 에너지 대역 별로 대상체에 대한 로우데이터를 획득하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 방법.
The method of claim 1, wherein the obtaining of the raw data comprises:
The method of removing a virtual image of a CT image using a fuzzy neural network, characterized by obtaining X-rays from the photon count detector by dividing the X-rays into a plurality of energy bands and obtaining raw data of the object for the plurality of energy bands.
제1, 2, 4, 5, 6항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로,
상기 기록매체는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크 및 광 데이터 저장장치 중 적어도 하나인 것을 특징으로 하는 기록매체.
A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 1, 2, 4, 5, and 6 on a computer,
The recording medium is at least one of a ROM, RAM, CD-ROM, magnetic tape, floppy disk and optical data storage device.
광자계수검출기(photon counting detector)로부터 대상체를 단층 촬영하여 생성된 허상(artifact)을 포함하는 로우데이터를 획득하는 영상획득부;
상기 로우데이터를 극좌표(polar coordination) 변환하여 선 형태를 이루는 허상데이터를 검출하고, 상기 허상데이터를 이용하여 형성된 출력데이터를 직교좌표(cartesian coordinate) 변환하여 보정데이터를 획득하는 영상변환부;
상기 허상데이터를 회색도 변환(gray level transformation)하여 선 형태를 이루는 허상을 강조하는 영상보정부; 및
회색도 변환된 허상데이터를 퍼지 신경망(fuzzy neural network)에 입력하고 퍼지 소속함수를 적용하여 일정값에 수렴하는 출력데이터를 형성하는 영상처리부를 포함하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치.
An image acquisition unit for acquiring raw data including an artifact generated by tomography imaging an object from a photon counting detector;
An image converter configured to detect the virtual data having a linear shape by converting the raw data into polar coordinates, and converting the output data formed using the virtual data into Cartesian coordinates to obtain correction data;
An image compensator for emphasizing the virtual image forming a line by gray level transformation of the virtual image data; And
A virtual image of a CT image using a fuzzy neural network, comprising: an image processor configured to input grayscale-converted virtual data to a fuzzy neural network and apply fuzzy membership function to form output data converged to a predetermined value Removal device.
제8항에 있어서,
상기 영상처리부는, 상기 허상데이터에 소속함수를 적용하여 다수 개의 퍼지데이터로 이루어진 입력 퍼지집합을 형성하고, 적어도 2개의 허상데이터에 의해 형성된 입력 퍼지집합을 특정 퍼지데이터와의 거리에 따라 소속 정도를 부여하여 퍼지데이터를 분류한 다음, 분류된 퍼지데이터가 퍼지 규칙베이스(fuzzy rule base)에 의해 추론데이터를 선별하여 출력 퍼지집합을 형성한 후, 상기 출력 퍼지집합에 대하여 비퍼지화를 통해 출력데이터를 형성하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치.
The method of claim 8,
The image processing unit forms an input fuzzy set composed of a plurality of fuzzy data by applying a belonging function to the virtual image data, and sets the degree of belonging to the input fuzzy set formed by at least two virtual image data according to a distance from a specific fuzzy data. Classify the fuzzy data, classify the fuzzy data, and classify the inferred data using a fuzzy rule base to form an output fuzzy set. Apparatus for removing virtual images of CT images using a fuzzy neural network, characterized in that to form a.
삭제delete 제8항에 있어서,
상기 영상보정부는,
상기 회색도 변환된 허상데이터에서 특징점을 추출하고, 상기 특징점의 연결형태를 파악하여 의사특징점을 선별하여 제거하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치.
The method of claim 8,
The video correction unit,
The virtual image removal apparatus of the CT image using a fuzzy neural network, characterized in that the feature points are extracted from the gray-scale converted virtual image data, and the pseudo feature points are selected and removed by grasping the connection form of the feature points.
제8항에 있어서,
상기 영상보정부는,
상기 회색도 변환된 허상데이터에서 대상픽셀을 선별하고 상기 대상픽셀을 둘러싸고 있는 다른 픽셀들의 평균값을 대상픽셀에 취하는 고등차수 보간(bicubic-interpolation)과, 다항식으로 이루어진 근사 함수를 이용하여 임의의 위치에 대한 함수값을 구하는 다항 근사화 보간(polynomial fitting-interpolation)을 결합한 하이브이드 보간법을 통해 허상데이터를 보정하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치.
The method of claim 8,
The video correction unit,
A target pixel is selected from the grayscale transformed virtual image data, and a high-order interpolation that takes an average value of other pixels surrounding the target pixel at the target pixel and an approximation function composed of polynomials are used at arbitrary positions. A virtual image removal apparatus for CT images using a fuzzy neural network, characterized by correcting virtual data through a hybrid hierarchical interpolation method that combines polynomial fitting-interpolation.
제8항에 있어서,
상기 영상획득부는 광자계수검출기로부터 X-ray를 복수 개의 에너지 대역 별로 구분하여 검출하여, 상기 복수 개의 에너지 대역 별로 대상체에 대한 로우데이터를 획득하는 것을 특징으로 하는 퍼지 신경망을 이용한 CT 영상의 허상 제거 장치.
The method of claim 8,
The image acquisition unit detects an X-ray from a photon count detector for each of a plurality of energy bands, and acquires raw data of an object for each of the plurality of energy bands. .
KR1020170173745A 2017-12-18 2017-12-18 Method and Apparatus for removing artifact in CT image using fuzzy neural network KR101982941B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170173745A KR101982941B1 (en) 2017-12-18 2017-12-18 Method and Apparatus for removing artifact in CT image using fuzzy neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170173745A KR101982941B1 (en) 2017-12-18 2017-12-18 Method and Apparatus for removing artifact in CT image using fuzzy neural network

Publications (1)

Publication Number Publication Date
KR101982941B1 true KR101982941B1 (en) 2019-08-28

Family

ID=67775396

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170173745A KR101982941B1 (en) 2017-12-18 2017-12-18 Method and Apparatus for removing artifact in CT image using fuzzy neural network

Country Status (1)

Country Link
KR (1) KR101982941B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000026152A (en) * 1998-10-19 2000-05-15 문성룡 High speed weighted fuzzy decision neural network device of quantized fuzzy trigonometric function
JP2002157593A (en) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd Method and unit for detecting abnormal shadow
JP2004192020A (en) * 2002-10-16 2004-07-08 Dainippon Printing Co Ltd Method and device for linear approximation of image
JP2008154237A (en) * 1998-04-06 2008-07-03 Seiko Epson Corp Image data interpolation apparatus, computer for image data interpolation processing, image data interpolation method, and medium recorded with image data interpolation program
WO2009087777A1 (en) * 2008-01-11 2009-07-16 Shimadzu Corporation Image processing method, its device and laminagraph device
KR101084719B1 (en) * 2010-06-25 2011-11-22 (주)퓨처아이스 Intelligent smoke detection system using image processing and computational intelligence
KR101717433B1 (en) 2015-09-01 2017-03-17 연세대학교 산학협력단 The beam-hardening correction method in X-ray CT
JP2017124149A (en) * 2016-01-15 2017-07-20 東芝メディカルシステムズ株式会社 Data processing device, x-ray ct apparatus, and data processing method
JP2018057867A (en) * 2016-10-07 2018-04-12 キヤノンメディカルシステムズ株式会社 Medical image processing device, x-ray computer tomographic imaging device and medical image processing method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008154237A (en) * 1998-04-06 2008-07-03 Seiko Epson Corp Image data interpolation apparatus, computer for image data interpolation processing, image data interpolation method, and medium recorded with image data interpolation program
KR20000026152A (en) * 1998-10-19 2000-05-15 문성룡 High speed weighted fuzzy decision neural network device of quantized fuzzy trigonometric function
JP2002157593A (en) * 2000-11-20 2002-05-31 Fuji Photo Film Co Ltd Method and unit for detecting abnormal shadow
JP2004192020A (en) * 2002-10-16 2004-07-08 Dainippon Printing Co Ltd Method and device for linear approximation of image
WO2009087777A1 (en) * 2008-01-11 2009-07-16 Shimadzu Corporation Image processing method, its device and laminagraph device
JP5023281B2 (en) * 2008-01-11 2012-09-12 株式会社島津製作所 Image processing method, apparatus and tomography apparatus
KR101084719B1 (en) * 2010-06-25 2011-11-22 (주)퓨처아이스 Intelligent smoke detection system using image processing and computational intelligence
KR101717433B1 (en) 2015-09-01 2017-03-17 연세대학교 산학협력단 The beam-hardening correction method in X-ray CT
JP2017124149A (en) * 2016-01-15 2017-07-20 東芝メディカルシステムズ株式会社 Data processing device, x-ray ct apparatus, and data processing method
JP2018057867A (en) * 2016-10-07 2018-04-12 キヤノンメディカルシステムズ株式会社 Medical image processing device, x-ray computer tomographic imaging device and medical image processing method

Similar Documents

Publication Publication Date Title
Unberath et al. Enabling machine learning in X-ray-based procedures via realistic simulation of image formation
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
US7978886B2 (en) System and method for anatomy based reconstruction
Ikhsan et al. An analysis of x-ray image enhancement methods for vertebral bone segmentation
CN105074775A (en) Registration of medical images
EP2245592B1 (en) Image registration alignment metric
JP2002515772A (en) Imaging device and method for canceling movement of a subject
US10143433B2 (en) Computed tomography apparatus and method of reconstructing a computed tomography image by the computed tomography apparatus
CN112598649B (en) 2D/3D spine CT non-rigid registration method based on generation of countermeasure network
CN111260748B (en) Digital synthesis X-ray tomography method based on neural network
Gajera et al. CT-scan denoising using a charbonnier loss generative adversarial network
CN104285240B (en) The suppression to external high contrast object based on stereoscopic X-ray pipe
EP3349655B1 (en) Tomography apparatus and controlling method for the same
Ervural et al. A Comparison of Various Fusion Methods for CT and MR Liver Images
KR101982941B1 (en) Method and Apparatus for removing artifact in CT image using fuzzy neural network
US20220414832A1 (en) X-ray imaging restoration using deep learning algorithms
CN112446840B (en) CT image black band artifact eliminating method and system based on deep learning
JP5514397B2 (en) Image display apparatus and X-ray tomography apparatus
KR102342954B1 (en) Apparatus and method for removing metal artifact of computer tomography image based on artificial intelligence
Jiang et al. Approaches for three material decomposition using a triple-layer flat-panel detector
Pan et al. Ultimate reconstruction: understand your bones from orthogonal views
KR20180003400A (en) Apparatus and method for processing medical image
Salehi et al. Investigation and simulation of different medical image processing algorithms to improve image quality using simulink matlab
Kovács et al. On Image preprocessing methods for preparation liver CT image series database for intelligent segmentation and classification algorithms
US20230233171A1 (en) Real-time monitored computed tomography (ct) reconstruction for reducing radiation dose