KR102628041B1 - 단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품 - Google Patents

단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품 Download PDF

Info

Publication number
KR102628041B1
KR102628041B1 KR1020180146774A KR20180146774A KR102628041B1 KR 102628041 B1 KR102628041 B1 KR 102628041B1 KR 1020180146774 A KR1020180146774 A KR 1020180146774A KR 20180146774 A KR20180146774 A KR 20180146774A KR 102628041 B1 KR102628041 B1 KR 102628041B1
Authority
KR
South Korea
Prior art keywords
data
input
tomographic image
material separation
information
Prior art date
Application number
KR1020180146774A
Other languages
English (en)
Other versions
KR20200061236A (ko
Inventor
최유나
이창래
최지영
정진욱
홍기조
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180146774A priority Critical patent/KR102628041B1/ko
Priority to US16/692,635 priority patent/US11596371B2/en
Priority to EP19210916.3A priority patent/EP3657444A1/en
Publication of KR20200061236A publication Critical patent/KR20200061236A/ko
Application granted granted Critical
Publication of KR102628041B1 publication Critical patent/KR102628041B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/46Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with special arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/50Clinical applications
    • A61B6/501Clinical applications involving diagnosis of head, e.g. neuroimaging, craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating apparatus or devices for radiation diagnosis
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/408Dual energy

Abstract

본 개시의 일 실시예의 일 측면에 따르면, 디스플레이; 외부 입력을 수신하는 입력부; 입력 단층 영상을 저장하는 저장부; 및 상기 디스플레이에 대상체의 상기 입력 단층 영상을 표시하고, 분리할 물질 조합을 결정하고, 상기 외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해 상기 결정된 물질 조합에 대응하는 물질 분리 정보를 표시하는 하나 이상의 프로세서를 포함하고, 상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상인, 단층 영상 처리 장치가 제공된다.

Description

단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품 {Apparatus, method, and computer program product for processing tomography image}
본 개시의 실시예들은 단층 영상 처리 장치, 단층 영상 처리 방법, 및 컴퓨터 프로그램 제품에 관한 것이다.
스펙트럴 단층 영상은 복수의 에너지 레벨에 대해 대상체를 통과한 방사선의 감쇄 정보를 보여준다. 스펙트럴 단층 영상의 개발로 대상체의 구조 및 상태에 대한 보다 정확한 정보를 획득할 수 있어, 의사의 진료 정확도를 높여줄 수 있는 효과를 얻을 수 있다. 그러나 스펙트럴 단층 영상을 보여주는 이미지 뷰어에서 보여주는 정보는 매우 제한적이다. 예를 들면, 이미지 뷰어에서 스펙트럴 단층영상에 대해 모노 에너지(monochromatic) 이미지를 에너지 스텝 별로 보여주거나, Effective-z값 등을 보여주는데 그치고 있어, 스펙트럴 단층 영상으로 인해 진단 효율을 직접적으로 향상시키는 데에 한계가 있다.
본 개시의 실시예들은 스펙트럴 단층 영상에서 대상체의 물질을 분리하고, 물질 분리 결과를 사용자 인터페이스를 통해 제공함에 의해, 진단 효율성 및 정확도를 증대시키기 위한 것이다.
또한, 본 개시의 실시예들은, 스펙트럴 단층 영상을 이용한 물질 분리 결과를 기반으로, 예상되는 종양 또는 병변을 추정하여, 종양/병변 정보를 제공함에 의해, 사용자의 진단에 도움을 주기 위한 것이다.
또한, 본 개시의 실시예들은, 머신 러닝을 이용하여 물질 분리 모델을 학습하고 이용함에 의해, 물질 분리의 정확도를 향상시키기 위한 것이다.
또한, 본 개시의 실시예들은, 데이터 증강 기법을 이용하여 학습 데이터의 개수를 증대시킴에 의해, 학습 데이터 수집의 부담을 감소시키고, 학습의 성능을 향상시키기 위한 것이다.
본 개시의 일 실시예의 일 측면에 따르면, 디스플레이; 외부 입력을 수신하는 입력부; 입력 단층 영상을 저장하는 저장부; 및 상기 디스플레이에 대상체의 상기 입력 단층 영상을 표시하고, 분리할 물질 조합을 결정하고, 상기 외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해 상기 결정된 물질 조합에 대응하는 물질 분리 정보를 표시하는 하나 이상의 프로세서를 포함하고, 상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상인, 단층 영상 처리 장치가 제공된다.
일 실시예에 따르면, 상기 하나 이상의 프로세서는, 상기 대상체의 종류 또는 외부 입력에 기초하여 상기 물질 조합을 선택할 수 있다.
일 실시예에 따르면, 상기 저장부는 상기 입력 단층 영상에 대한 각 픽셀에서 상기 물질 분리 정보를 저장하고, 상기 하나 이상의 프로세서는, 상기 관심 영역을 선택하는 상기 외부 입력에 기초하여 상기 저장된 물질 분리 정보를 상기 디스플레이에 표시할 수 있다.
일 실시예에 따르면, 상기 하나 이상의 프로세서는, 상기 대상체에 대한 입력 단층 영상 내에서 종양 또는 병변에 대한 정보를 상기 디스플레이에 표시할 수 있다.
일 실시예에 따르면, 상기 하나 이상의 프로세서는, 상기 물질 분리 정보에 기초하여, 상기 종양 또는 병변에 대한 정보를 결정할 수 있다.
일 실시예에 따르면, 상기 하나 이상의 프로세서는, 각 물질의 비율에 대한 정보 및 에너지 감쇄 값을 알고 있는 복수의 스펙트럴 영상 데이터를 포함하는 학습 데이터를 이용하여, 입력 단층 영상의 입력 단층 영상 데이터로부터 상기 물질 분리 정보를 획득하는 물질 분리 모델을 획득할 수 있다.
일 실시예에 따르면, 상기 하나 이상의 프로세서는, 상기 학습 데이터에 대해 밀도 또는 농도에 대해 피팅(fitting)하여 증가된(augmented) 학습 데이터를 생성할 수 있다.
상기 하나 이상의 프로세서는, 상기 증가된 학습 데이터를 이용하여, 심층 신경망을 학습시키고, 입력 단층 영상의 입력 단층 영상 데이터로부터 각 픽셀에 대한 상기 물질 분리 정보를 식별하는 심층 신경망 모델을 생성하고, 상기 심층 신경망 모델을 이용하여 상기 입력 단층 영상 데이터로부터 상기 물질 분리 정보를 식별할 수 있다.
일 실시예에 따르면, 상기 입력 단층 영상 데이터는, 상기 입력 단층 영상에 대한 로 데이터일 수 있다.
일 실시예에 따르면, 상기 관심 영역은 하나의 픽셀 또는 복수의 픽셀들을 포함하는 영역일 수 있다.
일 실시예에 따르면, 상기 물질 분리 정보는, 상기 결정된 물질 조합에 대한 확률 정보를 나타내는 그래프 형태로 표시될 수 있다.
일 실시예에 따르면, 상기 물질 분리 정보는, 상기 입력 단층 영상 상에서 상기 결정된 물질 조합의 각 물질의 분포를 나타내는 컬러 맵 형태로 표시될 수 있다.
일 실시예에 따르면, 상기 대상체에 대한 로 데이터를 획득하는 데이터 획득부를 더 포함할 수 있다.
본 개시의 일 실시예의 다른 측면에 따르면, 대상체의 입력 단층 영상을 표시하는 단계; 분리할 물질 조합을 결정하는 단계; 및 상기 외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해 상기 결정된 물질 조합에 대응하는 물질 분리 정보를 표시하는 단계를 포함하고, 상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상인, 단층 영상 처리 방법이 제공된다.
본 개시의 일 실시예의 또 다른 측면에 따르면, 프로세서에 의해 실행되었을 때 상기 프로세서가 단층 영상 처리 방법을 수행하도록 명령하는 프로그램 명령들을 저장하는 기록 매체를 포함하는 컴퓨터 프로그램 제품으로서, 상기 단층 영상 처리 방법은, 대상체의 입력 단층 영상을 표시하는 단계; 분리할 물질 조합을 결정하는 단계; 및 상기 외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해 상기 결정된 물질 조합에 대응하는 물질 분리 정보를 표시하는 단계를 포함하고, 상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상인, 컴퓨터 프로그램 제품이 제공된다.
본 개시의 실시예들에 따르면, 스펙트럴 단층 영상에서 대상체의 물질을 분리하고, 물질 분리 결과를 사용자 인터페이스를 통해 제공함에 의해, 진단 효율성 및 정확도를 증대시킬 수 있는 효과가 있다.
또한, 본 개시의 실시예들에 따르면, 스펙트럴 단층 영상을 이용한 물질 분리 결과를 기반으로, 예상되는 종양 또는 병변을 추정하여, 종양/병변 정보를 제공함에 의해, 사용자의 진단에 도움을 줄 수 있는 효과가 있다.
또한, 본 개시의 실시예들에 따르면, 머신 러닝을 이용하여 물질 분리 모델을 학습하고 이용함에 의해, 물질 분리의 정확도를 향상시킬 수 있는 효과가 있다.
또한, 본 개시의 실시예들에 따르면, 데이터 증강 기법을 이용하여 학습 데이터의 개수를 증대시킴에 의해, 학습 데이터 수집의 부담을 감소시키고, 학습의 성능을 향상시킬 수 있는 효과가 있다.
도 1은 개시된 일 실시예에 따른 CT 시스템(100)의 구조를 나타낸 도면이다.
도 2는 일 실시예에 따라 입력 단층 영상으로부터 물질 분리 정보를 제공하는 과정을 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따른 단층 영상 처리 장치의 구조를 나타낸 블록도이다.
도 4는 다른 실시예에 따른 단층 영상 처리 장치의 구조를 나타낸 블록도이다.
도 5는 일 실시예에 따른 단층 영상 처리 방법을 나타낸 도면이다.
도 6은 일 실시예에 따른 GUI 뷰를 나타낸 도면이다.
도 7은 일 실시예에 따른 단층 영상 처리 방법을 나타낸 흐름도이다.
도 8은 일 실시예에 따른 단층 영상 처리 장치의 GUI 뷰를 나타낸 도면이다.
도 9는 일 실시예에 따른 단층 영상 처리 장치의 GUI 뷰를 나타낸 도면이다.
도 10은 일 실시예에 따른 물질 분리 정보 획득 과정을 나타낸 도면이다.
도 11은 일 실시예에 따라 관심 영역을 선택하는 과정을 나타낸 도면이다.
도 12는 일 실시예에 따라 관심 영역에 대한 물질 분리 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
도 13은 일 실시예에 따른 관심 영역에 대한 물질 분리 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
도 14는 일 실시예에 따른 관심 영역에 대한 물질 분리 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
도 15는 일 실시예에 따라 종양/병변 추천 모드에서 종양/병변에 대한 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
도 16은 일 실시예에 따라 종양/병변 정보를 나타낸 GUI 뷰를 나타낸 도면이다.
도 17은 일 실시예에 따라 종양/병변 정보를 나타낸 GUI 뷰를 나타낸 도면이다.
도 18은 일 실시예에 따른 물질 분리 모델을 설명하기 위한 도면이다.
도 19는 일 실시예에 따라 물질 분리 모델을 생성하는 방법을 나타낸 흐름도이다.
도 20은 일 실시예에 따라 팬텀으로부터 학습 데이터를 획득하고 물질 분리 모델을 획득하는 과정을 나타낸 도면이다.
도 21은 농도/밀도별 증강 모델을 획득하는 과정을 설명하기 위한 도면이다.
도 22는 데이터 증강 과정을 설명하기 위한 도면이다.
도 23은 제2 학습 데이터로부터 물질 분리 모델을 생성하는 과정을 나타낸 도면이다.
도 24a는 본 개시의 실시예에 따른 심층 신경망 프로세서를 나타내는 블록도이다.
도 24b는 심층 신경망 프로세서 내에 포함되는 데이터 학습부를 나타내는 블록도이다.
도 24c는 심층 신경망 프로세서 내에 포함되는 데이터 인식부를 나타내는 블록도이다.
도 25는 일 실시예에 따라 물질 분리 모델이 학습되는 과정을 나타낸 도면이다.
도 26은 일 실시예에 따라 물질 분리 모델을 이용하여 데이터를 인식하는 과정을 나타낸 도면이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '모듈' 또는 '부'(unit)라는 용어는 소프트웨어, 하드웨어 또는 펌웨어 중 하나 또는 둘 이상의 조합으로 구현될 수 있으며, 실시예들에 따라 복수의 '모듈' 또는 '부'가 하나의 요소(element)로 구현되거나, 하나의 '모듈' 또는 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 영상은 컴퓨터 단층 촬영(CT, Computed Tomography) 장치, 자기 공명 영상(MRI, Magnetic Resonance Imaging) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다.
본 명세서에서 'CT 시스템' 또는 'CT 장치'는 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 X선을 조사하고, X선을 검출하여 대상체를 촬영하는 시스템 또는 장치를 의미한다.
본 명세서에서 'CT 영상'은 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 조사된 X선을 검출하여 대상체를 촬영함으로써 획득된 로 데이터(raw data)로부터 구성된 영상을 의미한다.
도 1은 개시된 일 실시예에 따른 CT 시스템(100)의 구조를 나타낸 도면이다.
개시된 일 실시예에 따른 CT 시스템(100)은 갠트리(110), 테이블(105), 제어부(130), 저장부(140), 영상 처리부(150), 입력부(160), 디스플레이부(170), 및 통신부(180)를 포함할 수 있다.
갠트리(110)는 회전 프레임(111), 엑스레이 생성부(112), 엑스레이 검출부(113), 회전 구동부(114), 및 리드아웃부(115)를 포함할 수 있다.
회전 프레임(111)은 회전 구동부(114)로부터 구동 신호를 수신하여, 회전축(RA)을 중심으로 회전할 수 있다.
산란 방지 그리드(116)는 대상체와 엑스레이 검출부(113) 사이에 배치되어, 주 방사선은 대부분 투과시키고, 산란 방사선은 감쇠시킬 수 있다. 대상체는 테이블(105) 상에 배치되고, 테이블(105)은 CT 촬영을 수행하는 동안 이동되거나, 기울어지거나(tilting), 회전(rotating)할 수 있다.
엑스레이 생성부(112)는 고전압 생성부(HVG, high voltage generator)로부터 전압, 전류를 인가 받아 X선을 생성하고 방출한다.
엑스레이 생성부(112)는 엑스레이 생성부(112) 및 엑스레이 검출부(113)가 각각 한 개씩 구비되는 단일 소스 방식, 각각 두 개씩 구비되는 듀얼 소스 방식 등으로 구현될 수 있다.
엑스레이 검출부(113)는 대상체를 통과한 방사선을 검출한다. 엑스레이 검출부(113)는 예를 들면, 신틸레이터(Scintillator), 포톤 카운팅 디텍터(photon counting detector) 등을 이용하여 방사선을 검출할 수 있다.
엑스레이 생성부(112)와 엑스레이 검출부(113)의 구동 방식은 대상체에 대한 스캔 방식에 따라 달라질 수 있다. 상기 스캔 방식은 엑스레이 검출부(113)의 이동 경로에 따라 축상(axial) 스캔 방식, 나선형(helical) 스캔 방식 등을 포함한다. 또한 상기 스캔 방식은 X선이 조사되는 시간 구간에 따라 프로스펙티브(prospective) 모드, 레트로스펙티브(retrospective) 모드 등을 포함한다.
제어부(130)는 CT 시스템(100)의 각각의 구성요소들의 동작을 제어할 수 있다. 제어부(130)는 소정의 기능을 수행하기 위한 프로그램 또는 데이터를 저장하는 메모리, 프로그램 코드 및 데이터를 처리하는 프로세서를 포함할 수 있다. 제어부(130)는 하나 이상의 메모리 및 하나 이상의 프로세서의 다양한 조합으로 구현 가능하다. 프로세서는 CT 시스템(100)의 동작 상태에 따라 프로그램 모듈을 생성하고 삭제할 수 있으며, 프로그램 모듈의 동작들을 처리할 수 있다.
리드아웃부(115)는 엑스레이 검출부(113)에서 생성된 검출 신호를 입력 받아, 영상 처리부(150)로 출력한다. 리드아웃부(115)는 데이터 획득 회로(Data Acquisition System, 115-1) 및 데이터 송신부(115-2)를 포함할 수 있다. DAS(115-1)는 적어도 하나의 증폭 회로를 이용하여, 엑스레이 검출부(113)로부터 출력된 신호를 증폭하여, 데이터 송신부(115-2)로 출력한다. 데이터 송신부(115-2)는 멀티플렉서(MUX) 등의 회로를 이용하여, DAS(115-1)에서 증폭된 신호를 영상 처리부(150)로 출력한다. 슬라이스 두께(slice thickness)나 슬라이스 개수에 따라 엑스레이 검출부(113)로부터 수집된 일부 데이터만이 영상 처리부(150)로 제공되거나, 영상 처리부(150)가 일부 데이터만을 선택할 수 있다.
영상 처리부(150)는 리드아웃부(115)로부터 획득된 신호(예컨대, 가공 전 순수(pure) 데이터)로부터 단층 데이터를 획득한다. 영상 처리부(150)는 획득된 신호에 대한 전처리, 단층 데이터로의 변환 처리, 상기 단층 데이터에 대한 후처리 등을 수행할 수 있다. 영상 처리부(150)는 본 개시에서 예시된 처리들 중 일부 또는 전부를 수행하며, 실시예에 따라 영상 처리부(150)에서 수행되는 처리의 종류 및 순서는 달라질 수 있다.
영상 처리부(150)는 리드아웃부(115)로부터 획득된 신호에 대해, 채널들 사이의 감도 불균일 정정 처리, 신호 세기의 급격한 감소 정정 처리, X선 흡수재로 인한 신호의 유실 정정 처리 등의 전처리를 수행할 수 있다.
영상 처리부(150)는 실시예들에 따라, 단층 영상으로의 재구성 처리 중 일부 또는 전부를 수행하여 상기 단층 데이터를 생성한다. 실시예에 따라, 상기 단층 데이터는 역투영(back-projection)된 데이터, 또는 단층 영상 등의 형태를 가질 수 있다. 실시예들에 따라, 단층 데이터에 대한 추가적인 처리가 서버, 의료 장치, 휴대용 장치 등의 외부 장치에 의해 수행될 수 있다.
로 데이터는 대상체를 통과한 X선 세기에 상응하는 데이터 값의 집합으로서, 프로젝션 데이터(projection data) 또는 사이노그램(sinogram)을 포함할 수 있다. 역투영된 데이터는, X선이 방사된 각도 정보를 이용하여 상기 로 데이터를 역투영한 데이터이다. 단층 영상은 상기 로 데이터를 역투영하는 단계를 포함하는 재구성 영상기법들을 적용하여 획득된 영상이다.
저장부(140)는 제어 관련 데이터, 영상 데이터 등을 저장하는 저장매체로서, 휘발성 또는 비휘발성 저장매체를 포함할 수 있다.
입력부(160)는 사용자로부터 제어 신호, 데이터 등을 수신한다. 디스플레이부(170)는 CT 시스템(100)의 동작 상태를 나타내는 정보, 의료 정보, 의료 영상 데이터 등을 표시할 수 있다.
CT 시스템(100)은 통신부(180)를 포함하며, 통신부(180)를 통해 외부 장치(예를 들면, 서버, 의료 장치, 휴대 장치(스마트폰, 태블릿 PC, 웨어러블 기기 등)와 연결할 수 있다.
통신부(180)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
개시된 실시예들에 따른 CT 시스템(100)은 실시예에 따라 CT 촬영 시, 조영제를 이용하거나 이용하지 않을 수 있으며, 타 기기와 연계된 장치의 형태로 구현되는 것도 가능하다.
도 2는 일 실시예에 따라 입력 단층 영상으로부터 물질 분리 정보를 제공하는 과정을 나타낸 도면이다.
스펙트럴 단층 영상은 복수의 에너지 레벨에 대한 방사선의 감쇄 정보를 나타내는 영상이다. 스펙트럴 단층 영상 데이터는 복수의 에너지 레벨에서 대상체를 촬영하거나, 광자 계수 디텍터(photon counting detector)를 이용하여 획득될 수 있다. 예를 들면, CT 시스템(100)은 복수의 에너지 레벨 별로 엑스레이 생성부(112) 내의 복수의 튜브를 구비하는 듀얼 에너지 CT 방식, 튜브의 전압을 스위칭하는 방식, 튜브의 에너지 레벨을 조절하는 방식, 서로 다른 에너지 레벨의 방사선을 검출하는 복수의 엑스레이 검출부를 구비하는 방식, 서로 다른 에너지 레벨에 대응하는 복수의 레이어를 구비하는 엑스레이 검출부를 이용하는 방식 등으로 스펙트럴 단층 촬영을 수행할 수 있다. 광자 계수 디텍터는 엑스레이 검출부 내에서 광자의 에너지 레벨을 양자화하는 집적 회로를 픽셀 별로 구비하여, 스펙트럴 단층 영상 데이터를 획득할 수 있다. 스펙트럴 단층 영상 데이터는 엑스레이 검출부로부터 획득된 로 데이터를 지칭한다. 스펙트럴 단층 영상은 로 데이터로부터 재구성된 단층 영상을 지칭한다. 단층 영상은 HU(Hounsfield unit) 값에 기반한 Gray level로 표현될 수 있다. 스펙트럴 단층 촬영은 스펙트럴 단층 영상 데이터를 획득하기 위해 대상체에 대해 촬영을 수행하는 동작을 의미한다.
대상체에 포함된 물질들은 엑스레이 생성부에 의해 방사된 엑스레이가 해당 물질을 통과할 때, 서로 다른 감쇄 양상을 나타낸다. 이러한 감쇄 양상은 물질의 종류 및 밀도/농도에 따라 달라질 수 있다. 스펙트럴 단층 영상은 에너지 레벨 별로 다르게 나타나는 감쇄 양상에 대한 정보를 포함한다. 본 개시의 실시예들은 스펙트럴 단층 영상으로부터 획득된 물질 분리 정보를 GUI(graphic user interface)를 통해 사용자에게 제공한다.
본 개시의 실시예들에 따르면, 스펙트럴 단층 영상에 대해, 사용자가 선택한 위치 또는 영역에서 물질 분리 정보(230)를 제공한다. GUI는 단층 영상(210)에 대해 사용자가 선택한 지점 또는 영역을 포함하는 관심 영역(220)에 대응하는 물질 분리 정보(230)를 제공할 수 있다. 물질 분리 정보(230)는 해당 영역에 대응하는 물질 종류, 및 해당 영역에서 소정 물질에 대응할 확률을 나타내는 확률 정보를 포함할 수 있다. 관심 영역(220)은 커서(222) 또는 터치 입력 등에 의해 사용자에 의해 선택될 수 있다.
도 3은 본 개시의 일 실시예에 따른 단층 영상 처리 장치의 구조를 나타낸 블록도이다.
단층 영상 처리 장치(300)는 CT 시스템, 범용 컴퓨터, 휴대용 단말, 또는 키오스크 등의 형태로 구현될 수 있다. 휴대용 단말은 예를 들면, 스마트폰, 태블릿 PC(personal computer) 등의 형태로 구현될 수 있다. CT 시스템은 예를 들면, 도 1의 CT 시스템(100)의 형태로 구현될 수 있다.
일 실시예에 따른 단층 영상 처리 장치(300a)는 입력부(310), 프로세서(320), 디스플레이(330), 및 저장부(340)를 포함한다.
입력부(310)는 외부 입력을 수신한다. 입력부(310)는 사용자 입력 또는 외부 장치로부터의 입력을 수신할 수 있다. 일 실시예에 따르면, 입력부(310)는 사용자 입력을 수신하는 조작부로 구현될 수 있으며, 예를 들면, 마우스, 트랙볼, 키보드, 키, 버튼, 터치 패드, 터치 스크린, 조그 등을 포함할 수 있다. 다른 예로서, 입력부(310)는 외부 장치로부터 입력되는 제어 신호를 수신하는 I/O 디바이스 또는 송수신부로 구현될 수 있다.
프로세서(320)는 단층 영상 처리 장치(300)의 전반적인 동작을 제어하고, 데이터를 처리할 수 있다. 프로세서(320)는 하나 이상의 프로세서를 포함할 수 있다. 일 실시예에 따르면, 프로세서(320)는 촬영부(110)를 제어하고 로 데이터를 처리하는 동작을 모두 수행하는 프로세서로서, 하나 또는 복수 개로 구현될 수 있다. 다른 실시예에 따르면, 프로세서(320)는 외부 장치로부터 수신된 로 데이터를 처리하는 하나 이상의 프로세서에 대응될 수 있다. 프로세서(320)는 도 1의 영상 처리부(150)에 대응하거나, 영상 처리부(150)와 제어부(130)의 조합에 대응할 수 있다.
프로세서(320)는 디스플레이(330)에 대상체의 입력 단층 영상을 표시한다. 프로세서(320)는 입력 단층 영상이 입력되면, 입력 단층 영상을 단층 영상 처리 장치(300)의 GUI에 표시할 수 있다. 여기서 입력 단층 영상은 단일 에너지 단층 영상 및 스펙트럴 단층 영상을 포함할 수 있다. 실시예에 따라, 입력 단층 영상으로 단일 에너지 단층 영상과 스펙트럴 단층 영상이 순차적으로 입력되거나, 스펙트럴 단층 영상만 입력될 수 있다.
프로세서(320)는 입력 단층 영상으로부터 분리할 물질 조합을 결정할 수 있다. 물질 조합은 입력 단층 영상으로부터 분리할 물질들의 조합이다. 물질 조합은 예를 들면, 물과 뇌의 조합, 물과 뇌와 칼?㎱? 조합 등과 같이 결정될 수 있다. 대상체는 복수의 물질을 포함하고, 이러한 복수의 물질들로부터 다양한 물질 조합이 나올 수 있다. 이 때, 물질을 분리하기 위한 물질 조합에 따라 물질 분리 모델이 달라질 수 있다. 프로세서(320)는 물질 조합을 결정하여, 사용한 물질 분리 모델을 결정한다. 프로세서(320)는 사용자 입력 등의 외부 입력에 따라 물질 조합을 결정하거나, 자동으로 물질 조합을 결정할 수 있다.
프로세서(320)는 외부 입력에 의해 선택된 입력 단층 영상 내의 관심 영역에 대해 결정된 물질 조합에 대응하는 물질 분리 정보를 디스플레이(330)에 표시한다. 프로세서(320)는 입력부(310)를 통해 입력되는 외부 입력에 기초하여 관심 영역을 결정한다. 관심 영역은 하나의 픽셀 또는 복수의 픽셀을 포함하는 영역에 대응될 수 있다. 관심 영역이 결정되면, 프로세서(320)는 결정된 물질 분리 모델을 이용하여 관심 영역에 대해 물질 분리 처리를 수행하고, 물질 분리 정보를 획득한다. 여기서 물질 분리 정보는, 각 픽셀 또는 단위 영역에서 물질 조합 내의 각 물질에 해당할 확률 또는, 각 픽셀 또는 단위 영역에 대응하는 물질의 종류를 나타내는 정보이다. 프로세서(320)는 관심 영역에 대한 물질 분리 정보를 디스플레이(330)에 표시한다.
디스플레이(330)는 단층 영상 처리 장치(300a)의 GUI 뷰를 표시한다. 디스플레이(330)는 도 1의 디스플레이부(170)에 대응될 수 있다.
저장부(340)는 입력 단층 영상을 저장한다. 저장부(340)는 단층 영상 처리 장치(300a)의 동작에 필요한 다양한 데이터, 명령어 등을 저장한다. 일 실시예에 따르면, 저장부(340) 미리 생성된 물질 분리 모델을 저장하고, 입력 단층 영상에 물질 분리 모델을 적용하여 생성된 물질 분리 정보를 저장할 수 있다.
저장부(340)는 휘발성 또는 비휘발성 메모리로 구성될 수 있다. 일 실시예에 따르면, 저장부(340)는 도 1의 저장부(140)에 대응될 수 있다.
도 4는 다른 실시예에 따른 단층 영상 처리 장치의 구조를 나타낸 블록도이다.
본 개시의 다른 실시예에 따르면, 단층 영상 처리 장치(300b)는 도 3에서 설명된 입력부(310), 프로세서(320), 디스플레이(330), 및 저장부(340)에 더하여, 데이터 획득부(350)를 더 포함할 수 있다.
데이터 획득부(350)는 대상체를 촬영하여 생성된 로 데이터를 획득한다. 로 데이터는 프로젝션 데이터 또는 사이노그램에 대응될 수 있다. 로 데이터는 스펙트럴 단층 촬영을 수행하여 획득된 로 데이터에 대응될 수 있다.
일 실시예에 따르면, 데이터 획득부(350)는 엑스레이를 이용하여 대상체를 촬영하여 로 데이터를 획득하는 스캐너에 대응될 수 있다. 스캐너는 예를 들면, 엑스레이 생성부(112) 및 엑스레이 검출부(113)를 포함할 수 있다. 본 실시예에 따르면, 데이터 획득부(350)는 프로세서(320)의 제어에 따라 설정된 프로토콜로 대상체를 촬영하여 로 데이터를 획득할 수 있다.
다른 실시예에 따르면, 데이터 획득부(350)는 외부 장치로부터 로 데이터를 획득하는 통신부 또는 I/O 디바이스에 대응될 수 있다. 외부 장치는 예를 들면, CT 시스템, 의료 데이터 서버, 다른 사용자의 단말 등을 포함한다. 본 실시예에 따르면, 데이터 획득부(350)는 다양한 유무선 네트워크를 통하여 외부 장치와 연결될 수 있으며, 예를 들면 유선 케이블, LAN(Local Area Network), 이동 통신망, 인터넷 등을 통하여 외부 장치와 연결될 수 있다. 데이터 획득부(350)는 도 1의 통신부(180)에 대응될 수 있다.
도 5는 일 실시예에 따른 단층 영상 처리 방법을 나타낸 도면이다.
일 실시예에 따른 단층 영상 처리 방법은, 프로세서, 디스플레이, 입력부, 및 저장부를 구비하는 다양한 형태의 전자 장치에 의해 수행될 수 있다. 본 명세서에서는 본 개시의 단층 영상 처리 장치(300a, 300b)가 본 개시의 단층 영상 처리 장치의 제어 방법을 수행하는 실시예를 중심으로 설명한다. 따라서 단층 영상 처리 장치(300a, 300b)에 대해 설명된 실시예들은 단층 영상 처리 방법에 적용 가능하고, 반대로 단층 영상 처리 방법에 대해 설명된 실시예들은 단층 영상 처리 장치(300a, 300b)에 대한 실시예들에 적용 가능하다. 개시된 실시예들에 따른 단층 영상 처리 방법은 본 명세서에 개시된 단층 영상 처리 장치(300a, 300b)에 의해 수행되는 것으로 그 실시예가 한정되지 않고, 다양한 형태의 전자 장치에 의해 수행될 수 있다.
단층 영상 처리 장치는, 입력 단층 영상을 디스플레이에 표시한다(S502).
다음으로 단층 영상 처리 장치는, 입력 단층 영상에 대해 물질 분리를 수행할 물질 조합을 결정한다(S504). 단층 영상 처리 장치는 물질 조합이 결정되면, 물질 조합에 대응하는 물질 분리 모델을 결정하고, 입력 단층 영상으로부터 물질 분리 정보를 획득할 수 있다.
다음으로 단층 영상 처리 장치는, 외부 입력에 의해 선택된 입력 단층 영상 내의 관심 영역에 대해 물질 분리 정보를 표시한다(S506).
도 6은 일 실시예에 따른 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, GUI 뷰는 입력 단층 영상(610), 물질 조합 선택 영역(620), 및 물질 분리 정보(630)를 포함할 수 있다.
물질 조합 선택 영역(620)은 사용자가 선택 가능한 물질 조합 옵션들(622a, 622b, 622c, 622d)을 나타내고, 사용자가 물질 조합 옵션들(622a, 622b, 622c, 622d) 중 하나를 선택 가능한 UI를 제공한다. 예를 들면, 사용자는 선택 박스(624)를 이동시켜 물질 조합을 선택할 수 있다.
물질 분리 정보(630)는 사용자가 선택한 관심 영역에서, 선택된 물질 조합의 각 물질에 해당할 확률 정보를 나타낸다. 일 실시예에 따르면, 물질 분리 정보(630a)는 각 물질에 해당할 확률을 그래프로 나타낼 수 있다. 그래프에는 수치를 나타내는 정보가 함께 제공될 수 있다. 다른 실시예에 따르면, 물질 분리 정보(630b)는 관심 영역에 대응하는 물질 종류를 나타내는 정보를 제공할 수 있다. 예를 들면, 관심 영역에서 소정 물질에 해당할 확률이 기준 값(예를 들면, 99%) 이상인 경우, 확률 정보 없이 관심 영역에 대응하는 물질 종류에 대한 정보를 제공할 수 있다.
도 7은 일 실시예에 따른 단층 영상 처리 방법을 나타낸 흐름도이다.
일 실시예에 따르면, 단층 영상 처리 장치는, 대상체의 촬영 동작 및 물질 분리 동작을 모두 수행한다. 단층 영상 처리 장치는 해당 장치에 구비된 촬영부를 제어하거나, 해당 장치와 연결된 CT 시스템을 제어하여 복수의 에너지 레벨에 대한 스펙트럴 CT 촬영을 제어하고, 스펙트럴 단층 영상을 획득할 수 있다.
우선 단층 영상 처리 장치는 대상체에 대한 기본 촬영을 수행한다(S702). 여기서 기본 촬영은 단일 에너지 촬영으로 소정의 에너지 레벨로 수행될 수 있다. 기본 촬영은 사용자에 의해 설정되거나 자동으로 설정된 프로토콜에 의해 수행될 수 있다.
다음으로 단층 영상 처리 장치는, 기본 촬영에 의해 획득된 기본 단층 영상을 디스플레이 한다(S704).
다음으로, 스펙트럴 단층 촬영을 수행할 에너지 레벨 및 에너지 레벨 개수가 선택된다(S706). 에너지 레벨 및 에너지 레벨 개수는 사용자 입력에 의해 선택될 수 있다. 단층 영상 처리 장치는 에너지 레벨 및 에너지 레벨 개수를 선택할 수 있는 GUI를 제공하고, 에너지 레벨 및 에너지 레벨 개수를 선택하는 사용자 입력을 수신할 수 있다. 또한, 단층 영상 처리 장치는, 선택 가능한 에너지 레벨 및 선택 가능한 에너지 레벨 개수에 대한 정보를 GUI를 통해 제공할 수 있다.
또한, 단층 영상 처리 장치는 촬영 프로토콜 및 물질 조합을 선택한다(S708). 앞서 설명된 S706 단계와 S708 단계의 순서는 서로 변경될 수 있으며, 동시에 수행되는 것도 가능하다. 단층 영상 처리 장치는 사용자 입력에 기초하여 촬영 프로토콜 및 물질 조합을 선택할 수 있다. 단층 영상 처리 장치는 촬영 프로토콜 및 물질 조합을 선택할 수 있는 GUI를 제공할 수 있다. 촬영 프로토콜은 앞서 기본 촬영을 수행한 프로토콜과 동일한 프로토콜이거나 다른 프로토콜일 수 있다.
일 실시예에 따르면, 사용자가 촬영 프로토콜을 선택하면, 단층 영상 처리 장치는 선택된 촬영 프로토콜에서 선택 가능한 물질 조합에 대한 정보를 제공할 수 있다. 사용자는 선택 가능한 물질 조합 중 하나를 선택할 수 있다.
다른 실시예에 따르면, 사용자가 물질 조합을 선택하면, 단층 영상 처리 장치는 선택된 물질 조합에 대한 물질 분리를 수행하기 위해 수행되어야 할 촬영 프로토콜을 자동으로 추천하거나 선택할 수 있다. 사용자는 단층 영상 처리 장치에 의해 추천된 촬영 프로토콜 중 하나를 선택할 수 있다.
일 실시예에 따르면, 단층 영상 처리 장치는, 에너지 레벨, 에너지 레벨 개수, 및 촬영 프로토콜이 결정되면 스펙트럴 단층 촬영을 수행할 수 있고, 물질 조합의 선택은 스펙트럴 단층 촬영의 수행 전 또는 수행 후에 수행될 수 있다. 물질 조합의 선택은 스펙트럴 단층 촬영 수행 후라도 변경 가능하다.
다른 실시예에 따르면, 단층 영상 처리 장치는, 물질 조합이 선택되면, 해당 물질 조합에 대한 물질 분리를 수행하기 위한 에너지 레벨, 에너지 레벨 개수, 및 촬영 프로토콜을 자동으로 추천하고, 사용자는 추천 정보에 기초하여 에너지 레벨, 에너지 레벨 개수, 및 촬영 프로토콜을 선택할 수 있다. 물질 조합 내의 물질의 개수가 많을수록 많은 에너지 레벨 개수가 필요하기 때문에, 단층 영상 처리 장치는 물질의 개수에 기초하여 에너지 레벨 개수를 선택할 수 있다. 또한, 단층 영상 처리 장치는 물질 조합 내의 물질의 종류에 기초하여, 물질 별로 감쇄 양상의 차이가 큰 에너지 레벨의 조합을 결정하여 추천할 수 있다. 또한, 단층 영상 처리 장치는, 사용자가 선택한 물질 조합에 대해 물질 분리를 수행하기 위해 수행되어야 할 촬영 프로토콜을 선택하여 추천할 수 있다.
스펙트럴 단층 촬영의 수행이 완료되고, 물질 조합이 선택되면, 단층 영상 처리 장치는 선택된 물질 조합에 대응하는 물질 분리 모델을 적용한다(S710). 단층 영상 처리 장치는 스펙트럴 단층 영상 데이터에 물질 분리 모델을 적용하여, 각 픽셀에서의 물질 분리 정보를 획득하고 저장한다. 물질 분리 모델은 단층 영상 처리 장치에 미리 저장되어 있을 수 있다. 물질 분리 모델은 물질 조합 및 촬영이 수행된 에너지 레벨에 기초하여 결정될 수 있다.
단층 영상 처리 장치는 디스플레이에 기본 단층 영상 또는 스펙트럴 단층 영상을 표시하고, GUI를 통해 관심 영역의 선택을 받을 수 있다. 사용자는 디스플레이에 표시된 단층 영상 상에서 관심 영역을 선택할 수 있다. 관심 영역은 하나의 픽셀 또는 복수의 픽셀을 포함하는 소정의 영역일 수 있다. 단층 영상 처리 장치는 사용자가 선택한 관심 영역에 대해, 해당 관심 영역 내에서 물질 조합 내의 각 물질에 해당할 확률을 나타내는 물질 분리 정보를 산출하여, 산출된 물질 분리 정보를 표시할 수 있다(S712). 단층 영상 처리 장치는, 물질 분리 모델을 적용하여 미리 생성된 물질 분리 정보를 이용하여, 선택된 관심 영역에 대한 물질 분리 정보를 산출할 수 있다.
도 8은 일 실시예에 따른 단층 영상 처리 장치의 GUI 뷰를 나타낸 도면이다.
일 실시예에 따른 GUI 뷰는 제1 영역(810), 제2 영역(820), 제3 영역(830), 및 제4 영역(840)을 포함한다. 제1 영역(810), 제2 영역(820), 제3 영역(830), 및 제4 영역(840)의 배치, 크기, 및 조합은 실시예에 따라 달라질 수 있고, 서로 병합되거나 오버랩 되는 것도 가능하다. 실시예에 따라 제1 영역(810), 제2 영역(820), 제3 영역(830), 및 제4 영역(840) 중 적어도 하나 또는 이들의 조합이 다른 뷰 또는 다른 메뉴로 표시될 수 있으며, 외부 장치에 의해 표시될 수 있다.
제1 영역(810)은 스펙트럴 단층 촬영을 위한 파라미터들의 값을 설정하기 위한 영역이다. 제1 영역(810)은 에너지 레벨을 설정하기 위한 제1-1 UI 엘리먼트(812), 및 에너지 레벨 개수를 설정하기 위한 제1-2 UI 엘리먼트(814)를 포함할 수 있다. 제1 영역(810)의 파라미터 종류 및 파라미터들의 값은 스펙트럴 단층 촬영을 수행하는 촬영부의 구성 및 스펙트럴 단층 촬영 방식에 따라 달라질 수 있다.
제2 영역(820)은 촬영 프로토콜 및 대상체의 종류를 선택하기 위한 영역이다. 제2 영역(820)은 대상체의 종류를 선택하기 위한 제2-1 UI 엘리먼트(822) 및 촬영 프로토콜을 선택하기 위한 제2-2 UI 엘리먼트(824)를 포함할 수 있다. 제2-1 UI 엘리먼트(822)에서 대상체의 종류가 선택되면, 단층 영상 촬영 장치는 제2-2 UI 엘리먼트(824)에서 선택된 대상체에서 수행 가능한 적어도 하나의 촬영 프로토콜에 대한 정보를 제공할 수 있다. 예를 들면, 제2-1 UI 엘리먼트(822)에서 뇌(Brain)이 선택된 경우, 제2-2 UI 엘리먼트(824)에서 뇌에 대해 수행 가능한 촬영 프로토콜인 Brain, T-M joint, Neck routine가 선택 가능한 촬영 프로토콜에 대한 정보로 제공될 수 있다. 사용자는 제2-2 UI 엘리먼트(824)에서 선택 가능한 촬영 프로토콜 중 하나를 선택하여 촬영 프로토콜을 선택할 수 있다.
제3 영역(830)은 물질 조합을 선택하기 위한 영역이다. 제3 영역(930)은 물질 조합을 선택하기 위한 제3-1 UI 엘리먼트(832)를 포함할 수 있다. 제3-1 UI 엘리먼트(832)는 사용자가 선택한 대상체(822)에 대해 선택 가능한 적어도 하나의 물질 조합에 대한 정보를 제공할 수 있다. 예를 들면, 사용자가 제2-1 UI 엘리먼트(822)에서 뇌를 선택하였다면, 제3-1(UI)에서 뇌에 대해 선택 가능한 물질 조합들인 Water/Brain 조합, Water/Brain/Calcium 조합, Water/Brain/Calcium/Fat 조합, 및 Water/Brain/Calcium/Iodine 조합을 옵션으로 제공할 수 있다. 사용자는 제3-1 UI 엘리먼트(832)에서 적어도 하나의 옵션 중 하나를 선택하여 물질 조합을 선택할 수 있다.
추가적인 실시예에 따르면, 제3 영역(930)은 선택된 물질 조합에 대응하는 물질 분리 모델을 불러오기 위한 제3-2 UI 엘리먼트(834), 및 선택된 물질 분리 모델을 스펙트럴 단층 영상에 적용하기 위한 제3-3 UI 엘리먼트(836)를 더 포함할 수 있다.
사용자는 물질 조합의 선택 후, 제3-2 UI 엘리먼트(834)를 통해 물질 분리 모델을 불러올 수 있다. 단층 영상 처리 장치는 선택된 물질 조합에 대한 물질 분리 모델을 해당 장치에서 산출 또는 검색하거나, 외부 장치 또는 서버로부터 물질 분리 모델을 획득할 수 있다.
사용자는 제3-3 UI 엘리먼트(836)를 통해 물질 분리 모델을 획득된 스펙트럴 단층 영상 데이터에 적용할 수 있다. 제3-3 UI 엘리먼트(836)를 통해 물질 분리 모델 적용이 선택되면, 스펙트럴 단층 영상 데이터에 대해 각 픽셀에서의 물질 분리 정보가 획득된다.
제4 영역(840)은 단층 영상이 표시되는 영역이다. 제4 영역(840)에 기본 단층 촬영에 의해 획득된 단층 영상 또는 스펙트럴 단층 촬영에 의해 획득된 단층 영상이 표시될 수 있다. 또한, 제4 영역(840)에는 물질 분리 정보 또는 물질 분리 정보가 표시될 수 있다.
도 9는 일 실시예에 따른 단층 영상 처리 장치의 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, 단층 영상 처리 장치는 종양/병변 추천 모드를 제공할 수 있다. 종양/병변 추천 모드에서 단층 영상 처리 장치는 물질 분리 정보에 기초하여 종양/병변으로 의심되는 영역을 검출할 수 있다. 이를 위해 단층 영상 처리 장치의 GUI는 종양/병변 추천 모드를 선택 또는 해제할 수 있는 제5 UI 엘리먼트(910)를 더 포함할 수 있다.
도 10은 일 실시예에 따른 물질 분리 정보 획득 과정을 나타낸 도면이다.
단층 영상 처리 장치는 스펙트럴 단층 영상 데이터(1010)를 이용하여 물질 분리 정보를 획득한다. 스펙트럴 단층 영상 데이터(1010)는 스펙트럴 단층 촬영에 의해 획득된 로 데이터를 의미한다. 스펙트럴 단층 영상 데이터(1010)는 복수의 에너지 레벨 또는 복수의 에너지 범위들에 대한 방사선의 감쇄 정보를 나타낸다.
단층 영상 처리 장치는 물질 분리 모델을 결정하여, 스펙트럴 단층 영상 데이터(1010)를 물질 분리 모델에 적용한다(1020). 물질 분리 모델은 앞서 설명한 바와 같이 물질 조합에 따라 결정될 수 있다.
단층 영상 처리 장치는 물질 분리 모델을 적용하여 생성된 각 픽셀에 대한 물질 분리 정보를 저장부에 저장한다(1030). 물질 분리 정보를 단층 영상의 모든 픽셀에 대해 미리 산출하고 저장함에 의해, 사용자가 선택한 관심 영역에 대해 거의 실시간으로 물질 분리 정보를 제공하는 것이 가능하다.
다음으로 단층 영상 처리 장치는 관심 영역(ROI)에 대한 정보가 입력되면 관심 영역에 대한 물질 분리 정보를 생성하여 출력한다(1040). 단층 영상 처리 장치는 사용자가 선택한 관심 영역 주변에 물질 분리 정보를 표시할 수 있다.
도 11은 일 실시예에 따라 관심 영역을 선택하는 과정을 나타낸 도면이다.
일 실시예에 따르면, 단층 영상 처리 장치는 사용자가 표시된 단층 영상 내에서 관심 영역을 선택할 수 있도록 하는 GUI를 제공할 수 있다. 단층 영상 처리 장치는 입력부를 통해 관심 영역을 선택하는 외부 입력을 수신할 수 있다.
일 실시예에 따르면, 관심 영역은 복수의 픽셀들을 포함하는 영역(1110)으로 정의될 수 있다. 사용자는 소정의 영역을 커서에 의해 선택하거나, 터치 입력에 의해 선택할 수 있다. 또한, 사용자는 선택된 관심 영역의 크기를 변경할 수 있다(1110a, 1110b). 본 실시예에 따르면, 단층 영상 처리 장치는 물질 분리 모델을 적용하여 생성된 모든 픽셀에 대한 물질 분리 정보 중 선택된 영역에 포함되는 픽셀들에 대한 물질 분리 정보를 추출하고 병합하여, 선택된 관심 영역에 대한 물질 분리 정보를 생성할 수 있다.
다른 실시예에 따르면, 관심 영역은 하나의 픽셀(1120)에 대응될 수 있다. 사용자는 소정의 지점을 입력부를 통해 클릭하거나 터치하여 하나의 픽셀(1120)을 관심 영역으로 설정할 수 있다. 단층 영상 처리 장치는 모든 픽셀에 대한 물질 분리 정보 중 선택된 픽셀에 대응하는 물질 분리 정보를 추출하여 디스플레이를 통해 제공할 수 있다.
도 12는 일 실시예에 따라 관심 영역에 대한 물질 분리 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, 관심 영역(1210)에 대한 물질 분리 정보(1220)는 선택된 물질 조합에 포함되는 각 물질에 해당될 확률을 나타낸다. 예를 들면, 도 12에서 관심 영역(1210)은 물(Water)에 해당될 확률이 70%, 뇌(Brain)에 해당될 확률이 20%, 칼슘(Calcium)에 해당될 확률이 5%, 요오드(Iodine)에 해당될 확률이 1%이다.
도 13은 일 실시예에 따른 관심 영역에 대한 물질 분리 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
일 실시예에 따른 관심 영역(1210)에 대한 물질 분리 정보(1220)는 컬러 맵(color map) 형태로 표현될 수 있다. 컬러 맵은 소정의 영역에서 가장 높은 확률 정보를 가지는 물질의 종류를 나타낼 수 있다. 일 실시예에 따르면, 단층 영상 처리 장치는 소정의 픽셀 또는 영역에서, 기준 값 이상의 확률 정보를 가지는 제1 물질이 있는 경우, 제1 물질에 대응하는 컬러로 해당 픽셀 또는 영역을 표시하고, 기준 값 이상의 확률 정보를 가지는 물질이 없는 경우, 해당 픽셀 또는 영역에 대해 어떠한 컬러도 표시하지 않을 수 있다. 일 실시예에 따르면, 컬러 맵은 사용자가 선택한 물질 조합 내에 포함되는 물질들에 대해서만 컬러 맵을 표시하고, 사용자가 선택하지 않은 물질에 대해서는 컬러를 표시하지 않을 수 있다.
도 13에서는 관심 영역(1210) 내에서 뇌(Brain)에 해당하는 영역과 물(Water)에 해당하는 영역을 컬러 맵으로 표시하였다.
도 14는 일 실시예에 따른 관심 영역에 대한 물질 분리 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, 단층 영상에서 대상체에 해당하는 전체 영역에 대해 컬러 맵을 표시할 수 있다. 일 실시예에 따르면, 컬러 맵은 사용자가 선택한 물질 조합 내에 포함되는 물질들에 대해서만 컬러 맵을 표시하고, 사용자가 선택하지 않은 물질에 대해서는 컬러를 표시하지 않을 수 있다.
도 15는 일 실시예에 따라 종양/병변 추천 모드에서 종양/병변에 대한 정보를 제공하는 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, 단층 영상 처리 장치는 종양/병변 추천 모드가 선택된 경우, 종양/병변에 대한 정보를 제공할 수 있다. 단층 영상 처리 장치는 물질 분리 정보에 기초하여 종양/병변에 대한 정보를 산출할 수 있다. 예를 들면, 단층 영상 처리 장치는 종양에 대응하는 물질일 확률이 높은 영역에 대해 종양에 해당한다고 판단하고, 종양에 해당한다는 정보를 제공할 수 있다. 이를 위해, 단층 영상 처리 장치는 적어도 하나의 종양/병변에 대응하는 물질 정보를 나타내는 질병 정보를 미리 저장하거나 외부 장치로부터 획득하고, 질병 정보에 기초하여 종양/병변에 대한 정보를 생성할 수 있다.
일 실시예에 따르면, 종양/병변 정보는 관심 영역에 대해서만 제공될 수 있다. 다른 실시예에 따르면, 종양/병변에 대한 정보는 대상체의 전체 영역에 대해 제공될 수 있다. 예를 들면, 도 15에 도시된 바와 같이, 단층 영상 처리 장치는 대상체에서 뇌졸중(stroke)으로 의심되는 의심 영역(1512)을 식별하고, 의심 영역(1512)에 대응하는 질병 정보(1510)를 제공할 수 있다.
도 16은 일 실시예에 따라 종양/병변 정보를 나타낸 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, 단층 영상 처리 장치는 복부 단층 영상에 대해 지방간 의심 영역(1622)을 추출하고, 질병 정보(1620)를 제공할 수 있다. 지방간 의심 영역(1622)은 관심 영역(1630) 외부의 영역을 포함하여, 대상체 영역 전체에 대해 추출될 수 있다. 의심 영역(1622)은 투명도가 적용된 패턴 또는 색상으로 표시되어, 단층 영상에서 대상체에 대한 구조적인 정보와 함께 제공될 수 있다. 질병/병변 정보와 함께 선택된 관심 영역(1630)에 대한 물질 분리 정보(1610)가 함께 제공될 수 있다.
도 17은 일 실시예에 따라 종양/병변 정보를 나타낸 GUI 뷰를 나타낸 도면이다.
일 실시예에 따르면, 단층 영상 처리 장치는 흉부 단층 영상에 대해 종양 의심 영역(1710)을 추출하고, 질병 정보(1720)를 제공할 수 있다. 단층 영상 처리 장치는 선택된 관심 영역이 질병/병변에 대응되는 것으로 판단되는 경우, 의심 영역(1710)에 대한 정보 및 질병 정보(1720)를 제공할 수 있다. 질병/병변 정보와 함께 선택된 관심 영역에 대한 물질 분리 정보(1730)가 함께 제공될 수 있다.
도 18은 일 실시예에 따른 물질 분리 모델을 설명하기 위한 도면이다.
대상체에 포함된 물질들은 고유의 감쇄 특성을 갖는다. 이러한 감쇄 특성은 엑스레이의 에너지 레벨에 따라 달라진다. 본 개시의 실시예들은 에너지 레벨에 따라 달라지는 물질의 감쇄 특성을 이용하여, 스펙트럴 단층 영상 데이터로부터 단층 영상의 각 픽셀에 대한 물질 분리 정보를 얻는다. 도 18은 복수의 물질들에 대해 두 개의 에너지 레벨에서의 감쇄 특성을 나타내는 그래프이다. 가로축은 에너지 레벨 E1에서의 선형 감약 계수(cm-1)를 나타내고, 세로축은 에너지 레벨 E2에서의 선형 감약 계수(cm-1)를 나타낸다. 도 18에 도시된 바와 같이, 물질 1, 물질 2, 및 물질 3은 에너지 레벨 E1과 에너지 레벨 E2에서 서로 다른 감쇄 양상을 나타낸다. 각 물질에 대한 복수의 데이터 묶음(bundle)은 서로 다른 밀도/농도에 대응한다. 예를 들면, 물질 1에 대해 1820, 1822, 1824의 세 개의 데이터 묵음이 있는데, 1824, 1822, 1820 순으로 밀도/농도가 높아진다. 일반적으로 밀도/농도가 높아질수록 큰 감쇄가 일어난다. 물질 종류에 따라 밀도로 표현하거나 농도로 표현할 수 있다. 이와 같이 각 축이 서로 다른 에너지 레벨에 대응하는 제1 공간 상에, 복수의 물질에 대해 밀도/농도 별로 감쇄 데이터 값을 배치하는 경우, 제1 공간 내에서 각 물질 별로 공간이 나누어진다. 만약 물질 종류를 모르는 새로운 데이터(1810)를 제1 공간에 놓는 경우, 새로운 데이터(1810)가 어떤 물질에 해당하는지에 대한 물질 분리 정보를 알 수 있다. 이러한 개념으로 물질 분리 정보를 얻기 위한 방법론으로, 본 개시의 실시예들은 스펙트럴 단층 영상으로부터 물질 분리 모델을 나타내는 방정식을 푸는 방법, 머신 러닝 또는 딥 러닝을 이용하는 방법을 개시한다.
도 19는 일 실시예에 따라 물질 분리 모델을 생성하는 방법을 나타낸 흐름도이다.
일 실시예에 따르면, 단층 영상 처리 장치는 팬텀으로 획득된 학습 데이터를 이용하여 물질 분리 모델을 생성한다. 팬텀으로부터 획득된 학습 데이터는 이미 대상체의 각 영역에서 물질의 종류 및 밀도/농도를 알고 있는 데이터이다. 따라서 본 개시의 실시예들은 팬텀으로부터 획득된 학습 데이터로부터, 물질 분리 모델을 생성할 수 있다.
우선 단층 영상 처리 장치는 팬텀으로부터 학습 데이터를 획득한다(S1902). 학습 데이터는 팬텀을 촬영한 스펙트럴 단층 영상 데이터, 대상체의 각 영역에서는 물질 분리 정보, 밀도/농도 정보를 포함한다. 여기서 스펙트럴 단층 영상 데이터는 각 픽셀에서의 감쇄 정보를 나타내고, 물질 분리 정보는 각 픽셀에서의 물질 종류를 나타낸다.
다음으로 단층 영상 처리 장치는 학습 데이터를 추가로 처리하여 생성한다(S1904). 학습 데이터에 대한 추가 처리에는 데이터 증강(S1912) 및 물질 개수 선택(S1914)이 포함될 수 있다.
일 실시예에 따르면, 단층 영상 처리 장치는 팬텀으로부터 획득된 학습 데이터에 대해 농도/밀도별 증강 모델을 적용하여 학습 데이터의 개수를 늘릴 수 있다. 농도/밀도별로 학습 데이터를 모두 획득하고자 하는 경우, 학습 데이터를 획득하기 위한 로드가 과다해지는데, 본 개시의 실시예들은 미리 알고 있는 농도/밀도에 따른 감쇄 특성 변화 정보를 이용하여 농도/밀도별로 학습 데이터를 증강함에 의해 학습 데이터 획득 부담을 현저하게 감소시킬 수 있다. 또한, 학습 데이터의 증강 처리를 통해 학습 데이터의 개수를 늘림으로써, 학습의 성능 및 획득된 물질 분리 모델의 정확도를 향상시킬 수 있다.
또한, 단층 영상 처리 장치는 기본 물질의 개수를 선택함에 의해, 사용한 학습 데이터의 범위 및 개수를 선택할 수 있다(S1914). 기본 물질의 개수에 따라 필요한 학습 데이터의 에너지 레벨 수 및 학습의 복잡도가 달라지는데, 학습 데이터 추가 처리 시 기본 물질의 개수를 선택함에 의해 불필요한 학습을 피할 수 있다.
단층 영상 처리 장치는 추가 처리된 학습 데이터를 이용하여 데이터 학습을 수행한다(S1906). 단층 영상 처리 장치는 데이터 학습을 물질 분리 모델을 생성한다(S1908).
도 20은 일 실시예에 따라 팬텀으로부터 학습 데이터를 획득하고 물질 분리 모델을 획득하는 과정을 나타낸 도면이다.
팬텀(2010)은 설계자가 원하는 물질 조합 및 형태로 제작한 대상체이다. 따라서 설계자는 팬텀(2010)에 대한 물질 정보, 형태 정보 등을 모두 알고 있기 때문에, 팬텀(2010)을 촬영한 단층 영상 데이터로부터 원하는 파라미터 값 또는 정보를 얻을 수 있다.
일 실시예에 따르면 팬텀(2010)은 요오드(Iodine), 뇌(Brain), 및 칼슘(Ca)이 소정의 영역에 소정의 밀도/농도로 배치된 형태를 갖는다. 또한, 팬텀(2010)은 소정의 물질에 대해 서로 다른 농도로 각각 배치할 수 있다. 예를 들면, 팬텀(2010)은 요오드(Iodine)에 대해 4가지 농도로 배치하고, 칼슘(Ca)에 대해 3가지 밀도로 배치할 수 있다.
단층 영상 처리 장치는 팬텀(2010)에 대해 소정의 에너지 레벨 및 에너지 개수로 스펙트럴 단층 촬영을 수행한다. 스펙트럴 단층 촬영에 의해 복수의 에너지 레벨에 대한 복수의 스펙트럴 단층 영상 데이터가 획득된다. 설계자는 이미 팬텀(2010)에 대한 정보를 알고 있기 때문에, 스펙트럴 단층 영상 데이터에서 각 영역이 어떤 물질에 해당하는지 알 수 있다. 예를 들면, 설계자는 스펙트럴 단층 영상 데이터에서 2022a 영역은 팬텀(2010)의 2012a에 대응하므로 요오드에 해당되고, 데이터에서 2022b 영역은 팬텀(2010)의 2012b에 대응하므로 뇌에 해당되고, 데이터에서 2022c 영역은 팬텀(2010)의 2012c에 대응하므로 칼슘에 해당됨을 알 수 있다.
설계자는 팬텀에 대한 스펙트럴 단층 영상 데이터를 이용하여 물질 분리 모델을 획득할 수 있다.
도 21은 농도/밀도별 증강 모델을 획득하는 과정을 설명하기 위한 도면이다.
본 개시의 실시예들에 따르면, 단층 영상 처리 장치는 각 물질에 대한 농도/밀도에 따른 에너지 감쇄 변화 양상에 대한 정보를 이용하여 학습 데이터를 증강한다.
일 실시예에 따르면, 단층 영상 처리 장치는 미리 알고 있는 농도/밀도에 따른 에너지 감쇄 변화 양상을 이용하여 데이터 증강(data augmentation)을 수행한다. 예를 들면 단층 영상 처리 장치는 에너지 레벨 별로 상쇄 계수(attenuation coefficient)를 농도 별로 피팅(fitting)하여 데이터 증강을 수행한다.
다른 실시예에 따르면, 단층 영상 처리 장치는 농도/밀도가 서로 다른 대상 물질을 포함하는 농도/밀도 가변 팬텀(2110)을 이용하여 농도/밀도별 증강 모델을 획득한다. 농도/밀도 가변 팬텀(2110)은 각 영역별로 대상 물질의 농도/밀도가 다른 복수의 영역을 포함한다. 예를 들면, 농도/밀도 가변 팬텀(2110)은 서로 농도가 다른 요오드를 포함하는 복수의 영역을 포함한다. 2112a 영역은 2112b 영역에 비해 높은 농도를 가질 수 있다. 단층 영상 처리 장치는 농도/밀도 가변 팬텀(2110)을 단층 영상 촬영하여 단층 영상 데이터를 획득한다. 농도/밀도 가변 팬텀(2110)은 단일 에너지로 촬영되거나, 스펙트럴 단층 촬영될 수 있다. 단층 영상 처리 장치는 농도/밀도 가변 팬텀(2110)으로부터 획득된 단층 영상 데이터로부터 농도/밀도별 증강 모델을 생성할 수 있다. 농도/밀도 가변 팬텀(2110)이 단일 에너지로 촬영된 경우, 단층 영상 처리 장치는 촬영된 에너지 레벨에 대한 농도/밀도별 증강 모델을 생성하고, 다른 에너지 레벨에 대해서도 생성된 농도/밀도별 증강 모델을 적용하여 데이터 증강을 수행할 수 있다. 농도/밀도 가변 팬텀(2110)이 스펙트럴 단층 촬영된 경우, 단층 영상 처리 장치는 촬영된 에너지 레벨에 대해 각각 농도/밀도별 증강 모델을 생성할 수 있다.
도 22는 데이터 증강 과정을 설명하기 위한 도면이다.
데이터 증강은 팬텀으로부터 획득된 학습 데이터(2210)에 대해 농도/밀도별 증강 모델을 적용하여 수행된다. 여기서 팬텀으로부터 획득된 학습 데이터를 제1 학습 데이터(2210)라 칭하고, 증강된 학습 데이터를 제2 학습 데이터(2210)라 칭한다. 제1 학습 데이터는 적어도 두 개의 에너지 레벨을 축으로 하는 공간에서 표현된 감쇄 정보를 나타낸다. 예를 들면 제1 학습 데이터(2210)는 에너지 레벨 1(Bin1)과 에너지 레벨 2(Bin2)에 대한 감쇄 정보를 나타내는 학습 데이터 2212와, 에너지 레벨 2(Bin2)와 에너지 레벨 3(Bin3)에 대한 감쇄 정보를 나타내는 학습 데이터 2214를 포함할 수 있다. 제1 학습 데이터는 팬텀에 나타난 물질의 밀도/농도에 대한 감쇄 정보만을 포함한다.
단층 영상 처리 장치는 제1 학습 데이터(2210)에 농도/밀도별 증강 모델을 적용하여 제2 학습 데이터(2220)를 생성한다. 제2 학습 데이터(2220)는 제1 학습 데이터(2210)에 나타나지 않은 농도/밀도에 대응하는 감쇄 정보를 추가로 포함하여, 증가된 데이터 개수를 갖는다. 여기서 학습 데이터 2222는 학습 데이터 2212에 대응되고, 학습 데이터 2224는 학습 데이터 2214에 대응된다. 도 22에 도시된 바와 같이, 2 학습 데이터(2220)는 제1 학습 데이터에 비해 현저하게 증가된 데이터 묶음 수를 갖는 것을 알 수 있다. 예를 들면, 제2 학습 데이터(2220)의 학습 데이터 2222는 학습 데이터 2212에 대응하는데, 학습 데이터 2212에서는 요오드가 4가지 농도로 표현된 반면, 학습 데이터 2222에서는 요오드가 8가지 농도로 표현되었다. 또한, 학습 데이터 2212로부터 학습 데이터 2222로 변환되면서, 칼슘의 밀도의 종류는 3가지에서 9가지로 증가되었다. 이와 같이 데이터 증강에 의해 학습 데이터의 개수가 현저하게 증가되어 물질 분리 모델의 성능을 현저하게 향상시키고, 학습 데이터 생성의 로드를 감소시킬 수 있다.
도 23은 제2 학습 데이터로부터 물질 분리 모델을 생성하는 과정을 나타낸 도면이다.
단층 영상 처리 장치는 데이터 증강된 제2 학습 데이터(2220)로부터 물질 분리 모델을 생성한다(2310).
일 실시예에 따르면, 단층 영상 처리 장치는 물질 분리를 위한 방정식을 풀어 물질 분리 모델을 생성할 수 있다. 물질 분리 모델은 수학식 1과 같이 표현될 수 있다. 수학식 1은 각 픽셀에서의 선형 감쇄 계수를 나타낼 수 있다.
[수학식 1]
여기서 μ(E)는 해당 에너지 레벨에서의 선형 감쇄 계수(linear attenuation coefficient), fi 는 i번째 물질일 확률, μi(E)는 i번째 물질의 해당 에너지 레벨에서의 선형 감쇄 계수를 나타낸다.
N개의 에너지 레벨에 대해 선형 감쇄 계수가 획득되고, n개의 물질을 포함하는 물질 분리 모델의 경우, 각 에너지 레벨에서의 선형 감쇄 계수는 수학식 2와 같이 표현될 수 있다.
[수학식 2]
수학식 2를 행렬로 표현하면 수학식 3과 같다.
[수학식 3]
입력 단층 영상으로부터 구해야 하는 물질 분리 정보는 각 픽셀이 각 물질에 해당될 확률이므로, 물질 분리 정보는 수학식 4와 같이 구할 수 있다.
[수학식 4]
결국 물질 분리 정보를 구하기 위해서는 수학식 5의 행렬 값을 알아야 하고, 수학식 5의 행렬이 물질 분리 모델이 된다.
[수학식 5]
일 실시예에 다르면, 단층 영상 처리 장치는 학습 데이터를 이용하여 수학식 4의 좌측 행렬 및 수학식 4의 2번째 행렬의 값을 대입하고, 수학식 5의 행렬을 산출할 수 있다. 본 실시예에 따르면, 분리하려는 물질의 개수만큼의 에너지 레벨에 대한 스펙트럴 단층 영상 데이터가 요구된다. 일 실시예에 따르면, 머신러닝 또는 딥 러닝 방법을 이용하여 에너지 레벨 개수보다 더 많은 수의 물질을 분리하는 것이 가능하다.
도 24a는 본 개시의 실시예에 따른 심층 신경망 프로세서를 나타내는 블록도이다.
일 실시예에 따르면, 단층 영상 처리 장치는, 머신 러닝을 이용하여 학습 데이터로부터 물질 분리 모델을 생성할 수 있다. 물질 분리 모델은 예를 들면 심층 신경망을 이용하여 생성될 수 있다. 이를 위해 단층 영상 처리 장치는 심층 신경망(deep neural network) 프로세서를 포함하거나, 외부 장치에 구비된 심층 신경망 프로세서를 이용할 수 있다. 단층 영상 처리 장치에 심층 신경망 프로세서가 구비되는 경우, 프로세서(320)와 별개로 구비되거나, 프로세서(320) 내에 구비될 수 있다.
도 24a를 참조하면, 일 실시예에 따른 심층 신경망 프로세서(2400)는 데이터 학습부(2410) 및 데이터 인식부(2420)를 포함할 수 있다.
데이터 학습부(2410)는 전술한 심층 신경망을 통한 연산을 수행하기 위한 기준을 학습할 수 있다. 구체적으로, 데이터 학습부(2410)는 물질 분리 모델을 예측하기 위하여 어떤 데이터를 이용할지, 데이터를 이용하여 상황을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. 데이터 학습부(2410)는 학습에 이용될 데이터를 획득하고, 획득된 데이터를 후술할 데이터 인식 모델에 적용함으로써, 물질 분리 정보를 생성하기 위한 기준을 학습할 수 있다. 여기서, 데이터 학습부(2410)가 학습에 이용하는 데이터는 데이터 증강된 제2 학습 데이터일 수 있다. 구체적으로 데이터 학습부(2410)에 제2 학습 데이터의 각 픽셀의 감쇄 계수, 물질 종류, 농도/밀도 정보가 입력될 수 있다. 여기서 각 픽셀의 감쇄 계수는 각 픽셀의 로 데이터에 대응될 수 있다.
데이터 인식부(2420)는 데이터에 기초한 상황을 판단할 수 있다. 데이터 인식부(2420)는 학습된 데이터 인식 모델, 예를 들어, 제1 인공 배양 신경망을 이용하여, 입력 단층 영상으로부터 물질 분리 정보를 식별할 수 있다.
구체적으로, 데이터 인식부(2420)는 학습에 의한 기 설정된 기준에 따라 소정의 데이터를 획득하고, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델을 이용함으로써, 소정의 데이터에 기초한 소정의 상황을 판단할 수 있다. 또한, 획득된 데이터를 입력 값으로 하여 데이터 인식 모델에 의해 출력된 결과 값은, 데이터 인식 모델을 갱신하는데 이용될 수 있다.
본 개시의 실시예에서 데이터 인식부(2420)가 구축하는 데이터 인식 모델, 예를 들어, 심층 신경망(2520)을 학습하여 생성한 제1 인공 배양 신경망 또는 제1 인공 배양 신경망을 학습하여 생성한 제2 인공 배양 신경망 등은 복수개의 학습 데이터를 학습하여 입력 스펙트럴 단층 영상에서 물질 분리 정보를 추론하도록 모델링될 수 있다.
구체적으로, 데이터 인식부(2420)는 스펙트럴 단층 영상 데이터(즉, 로 데이터)의 각 픽셀 값을 입력 받아, 각 픽셀에서 소정 물질에 해당할 확률을 나타내는 물질 분리 정보를 출력할 수 있다. 데이터 인식부(2420)는 물질 조합에 따라 물질 분리 정보를 생성하도록 추가로 모델링될 수 있다.
데이터 학습부(2410) 및 데이터 인식부(2420) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 단층 영상 처리 장치에 탑재될 수 있다. 예를 들어, 데이터 학습부(2410) 및 데이터 인식부(2420) 중 적어도 하나는 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 프로세서(320)에 포함되거나 독립적으로 형성되는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작되어 단층 영상 처리 장치에 탑재될 수도 있다.
또한, 데이터 학습부(2410) 및 데이터 인식부(2420)는 단층 영상 처리 장치(300a, 300b)와 외부 장치에 각각 탑재될 수도 있다. 예를 들어, 데이터 학습부(2410) 및 데이터 인식부(2420) 중 하나는 단층 영상 처리 장치(300a, 300b)에 포함되고, 나머지 하나는 서버에 포함될 수 있다. 또한, 데이터 학습부(2410) 및 데이터 인식부(2420)는 유선 또는 무선으로 상호 연결되어, 데이터 학습부(2410)가 구축한 모델 정보를 데이터 인식부(2420)로 제공할 수도 있고, 데이터 인식부(2420)로 입력된 데이터가 추가 학습 데이터로서 데이터 학습부(2410)로 제공될 수도 있다.
한편, 데이터 학습부(2410) 및 데이터 인식부(2420) 중 적어도 하나는 소프트웨어 모듈로 구현될 수 있다. 데이터 학습부(2410) 및 데이터 인식부(2420) 중 적어도 하나가 소프트웨어 모듈(또는, 인스터력션(instruction) 포함하는 프로그램 모듈)로 구현되는 경우, 소프트웨어 모듈은 컴퓨터로 읽을 수 있는 판독 가능한 비일시적 판독 가능 기록매체(non-transitory computer readable media)에 저장될 수 있다. 또한, 이 경우, 적어도 하나의 소프트웨어 모듈은 OS(Operating System)에 의해 제공되거나, 소정의 애플리케이션에 의해 제공될 수 있다. 또는, 적어도 하나의 소프트웨어 모듈 중 일부는 OS(Operating System)에 의해 제공되고, 나머지 일부는 소정의 애플리케이션에 의해 제공될 수 있다.
도 24b는 심층 신경망 프로세서 내에 포함되는 데이터 학습부를 나타내는 블록도이다.
도 24b를 참조하면, 일부 실시예에 따른 데이터 학습부(2410)는 데이터 획득부(2410-1), 전처리부(2410-2), 학습 데이터 선택부(2410-3), 모델 학습부(2410-4) 및 모델 평가부(2410-5)를 포함할 수 있다.
데이터 획득부(2410-1)는 학습 데이터를 획득한다. 데이터 획득부(2410-1)는 학습 데이터를 저장하는 소정의 DB로부터 학습 데이터를 획득할 수 있다.
전처리부(2410-2)는 상황 판단을 위한 학습에 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 본 개시의 실시예에서, 전처리부(2410-2)는 후술할 모델 학습부(2410-4)가 상황 판단을 위한 학습을 위하여 획득된 데이터인 스펙트럴 단층 영상 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
학습 데이터 선택부(2410-3)는 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 모델 학습부(2410-4)에 제공될 수 있다. 학습 데이터 선택부(2410-3)는 상황 판단을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 학습에 필요한 데이터를 선택할 수 있다. 또한, 학습 데이터 선택부(2410-3)는 후술할 모델 학습부(2410-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
모델 학습부(2410-4)는 학습 데이터에 기초하여 상황을 어떻게 판단할 지에 관한 기준을 학습할 수 있다. 또한, 모델 학습부(2410-4)는 상황 판단을 위하여 어떤 학습 데이터를 이용해야 하는 지에 대한 기준을 학습할 수도 있다.
본 개시의 실시예에서, 모델 학습부(2410-4)는 복수개의 스펙트럴 단층 영상 데이터를 학습하고, 학습된 데이터에 기초하여 물질 분리 모델을 학습할 수 있다.
또한, 모델 학습부(2410-4)는 상황 판단에 이용되는 데이터 인식 모델을 학습 데이터를 이용하여 학습시킬 수 있다. 이 경우, 데이터 인식 모델은 미리 구축된 모델일 수 있다.
데이터 인식 모델은, 인식 모델의 적용 분야, 학습의 목적 또는 장치의 컴퓨터 성능 등을 고려하여 구축될 수 있다. 데이터 인식 모델은, 예를 들어, 신경망(Neural Network)을 기반으로 하는 모델일 수 있다. 예컨대, DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 모델이 데이터 인식 모델로서 사용될 수 있으나, 이에 한정되지 않는다.
또한, 데이터 인식 모델이 학습되면, 모델 학습부(2410-4)는 학습된 데이터 인식 모델을 저장할 수 있다. 이 경우, 모델 학습부(2410-4)는 학습된 데이터 인식 모델을 데이터 인식부(2420)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 다른 실시예에 따르면, 모델 학습부(2410-4)는 학습된 데이터 인식 모델을 후술할 데이터 인식부(2420)를 포함하는 전자 장치의 메모리에 저장할 수 있다. 또는, 모델 학습부(2410-4)는 학습된 데이터 인식 모델을 전자 장치와 유선 또는 무선 네트워크로 연결되는 서버의 메모리에 저장할 수도 있다.
이 경우, 학습된 데이터 인식 모델인 제1 인공 배양 신경망이 저장되는 메모리는, 예를 들면, 전자 장치의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 함께 저장할 수도 있다. 또한, 메모리는 소프트웨어 및/또는 프로그램을 저장할 수도 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API) 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다.
모델 평가부(2410-5)는 데이터 인식 모델에 평가 데이터를 입력하고, 평가 데이터로부터 출력되는 인식 결과가 소정 기준인 소정의 정확도 또는 소정의 신뢰도를 만족하지 못하는 경우, 모델 학습부(2410-4)로 하여금 다시 학습하도록 할 수 있다. 이 경우, 평가 데이터는 데이터 인식 모델을 평가하기 위한 기 설정된 데이터일 수 있다.
예를 들어, 모델 평가부(2410-5)는 평가 데이터에 대한 학습된 데이터 인식 모델의 인식 결과 중에서, 인식 결과가 정확하지 않은 평가 데이터의 개수 또는 비율이 미리 설정된 임계치를 초과하는 경우 소정 기준을 만족하지 못한 것으로 평가할 수 있다. 예컨대, 소정 기준이 비율 2%로 정의되는 경우, 학습된 데이터 인식 모델이 총 1000개의 평가 데이터 중의 20개를 초과하는 평가 데이터에 대하여 잘못된 인식 결과를 출력하는 경우, 모델 평가부(2410-5)는 학습된 데이터 인식 모델이 적합하지 않은 것으로 평가할 수 있다.
한편, 데이터 학습부(2410) 내의 전처리부(2410-2), 학습 데이터 선택부(2410-3), 모델 학습부(2410-4) 및 모델 평가부(2410-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 단층 영상 처리 장치 또는 외부 장치에 탑재될 수 있다.
또한, 전처리부(2410-2), 학습 데이터 선택부(2410-3), 모델 학습부(2410-4) 및 모델 평가부(2410-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 전처리부(2410-2), 학습 데이터 선택부(2410-3), 모델 학습부(2410-4) 및 모델 평가부(2410-5) 중 일부는 단층 영상 처리 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
도 24c는 심층 신경망 프로세서 내에 포함되는 데이터 인식부를 나타내는 블록도이다.
도 24c를 참조하면, 일부 실시예에 따른 데이터 인식부(2420)는 데이터 획득부(2420-1), 전처리부(2420-2), 인식 데이터 선택부(2420-3), 인식 결과 제공부(2420-4) 및 모델 갱신부(2420-5)를 포함할 수 있다.
데이터 획득부(2420-1)는 데이터 인식을 위해 필요한 입력 데이터를 획득할 수 있으며, 전처리부(2420-2)는 데이터 인식을 위해 획득된 데이터가 이용될 수 있도록, 획득된 데이터를 전처리할 수 있다. 전처리부(2420-2)는 후술할 인식 결과 제공부(2420-4)가 상황 판단을 위하여 획득된 데이터를 이용할 수 있도록, 획득된 데이터를 기 설정된 포맷으로 가공할 수 있다.
인식 데이터 선택부(2420-3)는 전처리된 데이터 중에서 데이터 인식에 필요한 데이터를 선택할 수 있다. 선택된 데이터는 인식 결과 제공부(2420-4)에게 제공될 수 있다. 인식 데이터 선택부(2420-3)는 데이터 인식을 위한 기 설정된 기준에 따라, 전처리된 데이터 중에서 일부 또는 전부를 선택할 수 있다. 또한, 인식 데이터 선택부(2420-3)는 후술할 모델 학습부(2410-4)에 의한 학습에 의해 기 설정된 기준에 따라 데이터를 선택할 수도 있다.
인식 결과 제공부(2420-4)는 선택된 데이터를 데이터 인식 모델에 적용하여 상황을 판단할 수 있다. 인식 결과 제공부(2420-4)는 데이터의 인식 목적에 따른 인식 결과를 제공할 수 있다.
모델 갱신부(2420-5)는 인식 결과 제공부(2420-4)에 의해 제공되는 인식 결과에 대한 평가에 기초하여, 데이터 인식 모델이 갱신되도록 할 수 있다. 예를 들어, 모델 갱신부(2420-5)는 인식 결과 제공부(2420-4)에 의해 제공되는 인식 결과를 모델 학습부(2410-4)에게 제공함으로써, 모델 학습부(2410-4)가 데이터 인식 모델을 갱신하도록 할 수 있다.
본 개시의 실시예에서, 모델 갱신부(2420-5)는 입력 단층 영상이 추가적으로 획득될 때마다, 데이터 인식 모델인 제1 인공 배양 신경망을 학습하여, 제1 인공 배양 신경망이 갱신되도록 할 수 있다. 또한, 모델 갱신부(2420-5)는 제1 인공 배양 신경망을 통한 연산을 수행하여 획득한 적어도 하나의 제2 의료 영상으로 제1 인공 배양 신경망을 학습하여, 제1 인공 배양 신경망을 수정 또는 갱신하여 제2 인공 배양 신경망을 획득할 수도 있을 것이다.
한편, 데이터 인식부(2420) 내의 데이터 획득부(2420-1), 전처리부(2420-2), 인식 데이터 선택부(2420-3), 인식 결과 제공부(2420-4) 및 모델 갱신부(2420-5) 중 적어도 하나는, 적어도 하나의 하드웨어 칩 형태로 제작되어 전자 장치에 탑재될 수 있다. 또한, 데이터 획득부(2420-1), 전처리부(2420-2), 인식 데이터 선택부(2420-3), 인식 결과 제공부(2420-4) 및 모델 갱신부(2420-5)는 하나의 전자 장치에 탑재될 수도 있으며, 또는 별개의 전자 장치들에 각각 탑재될 수도 있다. 예를 들어, 데이터 획득부(2420-1), 전처리부(2420-2), 인식 데이터 선택부(2420-3), 인식 결과 제공부(2420-4) 및 모델 갱신부(2420-5) 중 일부는 전자 장치에 포함되고, 나머지 일부는 서버에 포함될 수 있다.
도 25는 일 실시예에 따라 물질 분리 모델이 학습되는 과정을 나타낸 도면이다.
일 실시예에 따르면, 물질 분리 모델은 앞서 도 24a 내지 24c를 통해 설명된 심층 신경망 프로세서를 이용하여 학습될 수 있다. 데이터 학습부(2420)는 학습 데이터(2510)를 획득하여, 심층 신경망(2520)을 학습시킬 수 있다. 학습 데이터(2510)는 예를 들면 앞서 설명된 데이터 증강된 제2 학습 데이터일 수 있다. 심층 신경망(2520)은 학습을 통해 각 노드 및 레이어를 생성하고, 각 노드 간의 가중치를 결정하고, 물질 분리 모델을 결정할 수 있다.
다른 실시예에 따르면, 학습 데이터는 물질 조합, 촬영 프로토콜, 스펙트럴 단층 영상의 에너지 레벨 및 에너지 레벨 수 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.
도 26은 일 실시예에 따라 물질 분리 모델을 이용하여 데이터를 인식하는 과정을 나타낸 도면이다.
일 실시예에 따르면, 물질 분리 모델은 데이터 학습부(2420)에 의해 학습된 심층 신경망(2520)을 포함할 수 있다. 스펙트럴 단층 영상 데이터가 학습된 심층 신경망(2520)으로 입력되면, 각 픽셀 또는 단위 영역에 대한 물질 분리 정보가 심층 신경망(2520)으로부터 출력될 수 있다. 심층 신경망(2520)에는 추가적으로 물질 조합, 촬영 프로토콜, 스펙트럴 단층 영상의 에너지 레벨 및 에너지 레벨 수 중 적어도 하나 또는 이들의 조합이 입력될 수 있다.
일 실시예에 따른 단층 영상 처리 장치는 머신 러닝 및 심층 신경망을 이용하여 물질 분리 모델을 생성하고 물질 분리 정보를 획득함으로써, 물질 분리 모델의 정확도를 향상시킬 수 있다.
한편, 개시된 실시예들은 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 S/W 프로그램으로 구현될 수 있다.
컴퓨터는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 개시된 실시예에 따른 동작이 가능한 장치로서, 개시된 실시예들에 따른 단층 영상 처리 장치를 포함할 수 있다.
컴퓨터로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 개시된 실시예들에 따른 단층 영상 처리 장치 또는 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체를 포함할 수 있다. 예를 들어, 컴퓨터 프로그램 제품은 단층 영상 처리 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사의 서버, 전자 마켓의 서버, 또는 SW 프로그램을 임시적으로 저장하는 중계 서버의 저장매체가 될 수 있다.
컴퓨터 프로그램 제품은, 서버 및 단말(예로, CT 시스템)로 구성되는 시스템에서, 서버의 저장매체 또는 단말의 저장매체를 포함할 수 있다. 또는, 서버 또는 단말과 통신 연결되는 제3 장치(예, 스마트폰)가 존재하는 경우, 컴퓨터 프로그램 제품은 제3 장치의 저장매체를 포함할 수 있다. 또는, 컴퓨터 프로그램 제품은 서버로부터 단말 또는 제3 장치로 전송되거나, 제3 장치로부터 단말로 전송되는 S/W 프로그램 자체를 포함할 수 있다.
이 경우, 서버, 단말 및 제3 장치 중 하나가 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수 있다. 또는, 서버, 단말 및 제3 장치 중 둘 이상이 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 분산하여 실시할 수 있다.
예를 들면, 서버(예로, 클라우드 서버 또는 인공 지능 서버 등)가 서버에 저장된 컴퓨터 프로그램 제품을 실행하여, 서버와 통신 연결된 단말이 개시된 실시예들에 따른 방법을 수행하도록 제어할 수 있다.
또 다른 예로, 제3 장치가 컴퓨터 프로그램 제품을 실행하여, 제3 장치와 통신 연결된 단말이 개시된 실시예에 따른 방법을 수행하도록 제어할 수 있다. 구체적인 예로, 제3 장치는 CT 시스템을 원격 제어하여, CT 시스템이 X선을 대상체로 조사하고, 대상체를 통과하여 엑스레이 검출부에서 검출된 방사선 정보에 기초하여 대상체 내부의 부위에 대한 영상을 생성하도록 제어할 수 있다.
또 다른 예로, 제3 장치가 컴퓨터 프로그램 제품을 실행하여, 보조 장치(예로, CT 시스템의 갠트리)로부터 입력된 값에 기초하여 개시된 실시예에 따른 방법을 직접 수행할 수도 있다. 구체적인 예로, 보조 장치가 X선을 대상체로 조사하고, 대상체를 통과하여 검출된 방사선 정보를 획득할 수 있다. 제3 장치는 보조 장치로부터 검출된 방사선 정보를 입력 받고, 입력된 방사선 정보에 기초하여 대상체 내부의 부위에 대한 영상을 생성할 수 있다.
제3 장치가 컴퓨터 프로그램 제품을 실행하는 경우, 제3 장치는 서버로부터 컴퓨터 프로그램 제품을 다운로드하고, 다운로드된 컴퓨터 프로그램 제품을 실행할 수 있다. 또는, 제3 장치는 프리로드된 상태로 제공된 컴퓨터 프로그램 제품을 실행하여 개시된 실시예들에 따른 방법을 수행할 수도 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.

Claims (20)

  1. 디스플레이;
    외부 입력을 수신하는 입력부;
    입력 단층 영상을 저장하는 저장부; 및
    상기 디스플레이에 대상체의 상기 입력 단층 영상을 표시하고, 분리할 물질 조합의 복수의 옵션들을 상기 디스플레이에 표시하고, 상기 입력부를 통해 상기 복수의 옵션들 중 하나를 선택하는 사용자 입력을 수신하고, 상기 선택된 옵션을 상기 분리할 물질 조합으로 결정하고, 상기 외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해 상기 선택된 옵션의 물질 조합의 각 물질에 해당할 확률을 나타낸 그래프를 포함하는 물질 분리 정보를 표시하는 하나 이상의 프로세서를 포함하고,
    상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상이고,
    상기 분리할 물질 조합은 서로 다른 복수의 물질의 조합에 대응하는, 단층 영상 처리 장치.
  2. 제1항에 있어서,
    상기 하나 이상의 프로세서는, 상기 대상체의 종류 또는 외부 입력에 기초하여 상기 물질 조합을 선택하는, 단층 영상 처리 장치.
  3. 제1항에 있어서,
    상기 저장부는 상기 입력 단층 영상에 대한 각 픽셀에서 상기 물질 분리 정보를 저장하고,
    상기 하나 이상의 프로세서는, 상기 관심 영역을 선택하는 상기 외부 입력에 기초하여 상기 저장된 물질 분리 정보를 상기 디스플레이에 표시하는, 단층 영상 처리 장치.
  4. 제1항에 있어서,
    상기 하나 이상의 프로세서는, 상기 대상체에 대한 입력 단층 영상 내에서 종양 또는 병변에 대한 정보를 상기 디스플레이에 표시하는, 단층 영상 처리 장치.
  5. 제4항에 있어서,
    상기 하나 이상의 프로세서는, 상기 물질 분리 정보에 기초하여, 상기 종양 또는 병변에 대한 정보를 결정하는, 단층 영상 처리 장치.
  6. 제1항에 있어서,
    상기 하나 이상의 프로세서는, 각 물질의 비율에 대한 정보 및 에너지 감쇄 값을 알고 있는 복수의 스펙트럴 영상 데이터를 포함하는 학습 데이터를 이용하여, 입력 단층 영상의 입력 단층 영상 데이터로부터 상기 물질 분리 정보를 획득하는 물질 분리 모델을 획득하는, 단층 영상 처리 장치.
  7. 제6항에 있어서,
    상기 하나 이상의 프로세서는, 상기 학습 데이터에 대해 밀도 또는 농도에 대해 피팅(fitting)하여 증가된(augmented) 학습 데이터를 생성하는, 단층 영상 처리 장치.
  8. 제7항에 있어서,
    상기 하나 이상의 프로세서는, 상기 증가된 학습 데이터를 이용하여, 심층 신경망을 학습시키고, 입력 단층 영상의 입력 단층 영상 데이터로부터 각 픽셀에 대한 상기 물질 분리 정보를 식별하는 심층 신경망 모델을 생성하고, 상기 심층 신경망 모델을 이용하여 상기 입력 단층 영상 데이터로부터 상기 물질 분리 정보를 식별하는, 단층 영상 처리 장치.
  9. 제8항에 있어서,
    상기 입력 단층 영상 데이터는, 상기 입력 단층 영상에 대한 로 데이터인, 단층 영상 처리 장치.
  10. 제1항에 있어서,
    상기 관심 영역은 하나의 픽셀 또는 복수의 픽셀들을 포함하는 영역인, 단층 영상 처리 장치.
  11. 제1항에 있어서,
    상기 물질 분리 정보는, 상기 결정된 물질 조합에 대한 확률 정보를 나타내는 그래프 형태로 표시되는, 단층 영상 처리 장치.
  12. 제1항에 있어서,
    상기 물질 분리 정보는, 상기 입력 단층 영상 상에서 상기 결정된 물질 조합의 각 물질의 분포를 나타내는 컬러 맵 형태로 표시되는, 단층 영상 처리 장치.
  13. 제1항에 있어서,
    상기 대상체에 대한 로 데이터를 획득하는 데이터 획득부를 더 포함하는, 단층 영상 처리 장치.
  14. 대상체의 입력 단층 영상을 표시하는 단계;
    분리할 물질 조합의 복수의 옵션들을 표시하는 단계;
    상기 복수의 옵션들 중 하나를 선택하는 사용자 입력을 수신하는 단계;
    상기 선택된 옵션을 상기 분리할 물질 조합으로 결정하는 단계; 및
    외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해, 상기 선택된 옵션의 물질 조합의 각 물질에 해당할 확률을 나타낸 그래프를 포함하는 물질 분리 정보를 표시하는 단계를 포함하고,
    상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상이고,
    상기 분리할 물질 조합은 서로 다른 복수의 물질의 조합에 대응하는, 단층 영상 처리 방법.
  15. 제14항에 있어서,
    상기 물질 조합을 결정하는 단계는, 상기 대상체의 종류 또는 외부 입력에 기초하여 상기 물질 조합을 선택하는, 단층 영상 처리 방법.
  16. 제14항에 있어서,
    상기 입력 단층 영상에 대한 각 픽셀에서 상기 물질 분리 정보를 저장하는 단계; 및
    상기 관심 영역을 선택하는 상기 외부 입력에 기초하여 상기 저장된 물질 분리 정보를 디스플레이에 표시하는 단계를 더 포함하는 단층 영상 처리 방법.
  17. 제14항에 있어서,
    상기 대상체에 대한 입력 단층 영상 내에서 종양 또는 병변에 대한 정보를 디스플레이에 표시하는 단계를 더 포함하는, 단층 영상 처리 방법.
  18. 제17항에 있어서,
    상기 물질 분리 정보에 기초하여, 상기 종양 또는 병변에 대한 정보를 결정하는 단계를 더 포함하는, 단층 영상 처리 방법.
  19. 제14항에 있어서,
    각 물질의 비율에 대한 정보 및 에너지 감쇄 값을 알고 있는 복수의 스펙트럴 영상 데이터를 포함하는 학습 데이터를 이용하여, 입력 단층 영상의 입력 단층 영상 데이터로부터 상기 물질 분리 정보를 획득하는 물질 분리 모델을 획득하는 단계를 더 포함하는, 단층 영상 처리 방법.
  20. 프로세서에 의해 실행되었을 때 상기 프로세서가 단층 영상 처리 방법을 수행하도록 명령하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체에 있어서, 상기 단층 영상 처리 방법은,
    대상체의 입력 단층 영상을 표시하는 단계;
    분리할 물질 조합의 복수의 옵션들을 표시하는 단계;
    상기 복수의 옵션들 중 하나를 선택하는 사용자 입력을 수신하는 단계;
    상기 선택된 옵션을 상기 분리할 물질 조합으로 결정하는 단계; 및
    외부 입력에 의해 선택된 상기 입력 단층 영상 내의 관심 영역에 대해, 상기 선택된 옵션의 물질 조합의 각 물질에 해당할 확률을 나타낸 그래프를 포함하는 물질 분리 정보를 표시하는 단계를 포함하고,
    상기 입력 단층 영상은 복수의 에너지 레벨에 대응하는 복수의 단층 영상을 포함하는 스펙트럴 단층 영상이고,
    상기 분리할 물질 조합은 서로 다른 복수의 물질의 조합에 대응하는, 컴퓨터로 읽을 수 있는 기록 매체.
KR1020180146774A 2018-11-23 2018-11-23 단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품 KR102628041B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180146774A KR102628041B1 (ko) 2018-11-23 2018-11-23 단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품
US16/692,635 US11596371B2 (en) 2018-11-23 2019-11-22 Tomographic image processing apparatus and method of separating material of object in spectral tomographic image, and computer program product
EP19210916.3A EP3657444A1 (en) 2018-11-23 2019-11-22 Tomographic image processing apparatus and method, and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180146774A KR102628041B1 (ko) 2018-11-23 2018-11-23 단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품

Publications (2)

Publication Number Publication Date
KR20200061236A KR20200061236A (ko) 2020-06-02
KR102628041B1 true KR102628041B1 (ko) 2024-01-22

Family

ID=68655272

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180146774A KR102628041B1 (ko) 2018-11-23 2018-11-23 단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품

Country Status (3)

Country Link
US (1) US11596371B2 (ko)
EP (1) EP3657444A1 (ko)
KR (1) KR102628041B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10973472B2 (en) * 2019-03-05 2021-04-13 Siemens Healthcare Gmbh Artificial intelligence-based material decomposition in medical imaging
JP7322262B1 (ja) 2022-08-30 2023-08-07 ジーイー・プレシジョン・ヘルスケア・エルエルシー 仮想単色x線画像を推論する装置、ctシステム、学習済みニューラルネットワークの作成方法、および記憶媒体
JP7383770B1 (ja) 2022-08-31 2023-11-20 ジーイー・プレシジョン・ヘルスケア・エルエルシー 物質密度画像を推論する装置、ctシステム、記憶媒体、および学習済みニューラルネットワークの作成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160157802A1 (en) 2014-12-08 2016-06-09 Volcano Corporation Devices, systems, and methods for vessel assessment and intervention recommendation
WO2018098118A1 (en) * 2016-11-23 2018-05-31 Mayo Foundation For Medical Education And Research System and method for quantifying luminal stenosis using multi-energy computed tomography imaging

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8761479B2 (en) 2010-11-08 2014-06-24 General Electric Company System and method for analyzing and visualizing spectral CT data
US9808216B2 (en) 2014-06-20 2017-11-07 Marquette University Material decomposition of multi-spectral x-ray projections using neural networks
KR20160089976A (ko) * 2015-01-21 2016-07-29 삼성전자주식회사 엑스선 영상장치 및 엑스선 영상생성방법
US10499869B2 (en) 2016-02-05 2019-12-10 Toshiba Medical Systems Corporation Apparatus and method for material decomposition of spectrally resolved projection data using singles counts
US10387765B2 (en) 2016-06-23 2019-08-20 Siemens Healthcare Gmbh Image correction using a deep generative machine-learning model

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160157802A1 (en) 2014-12-08 2016-06-09 Volcano Corporation Devices, systems, and methods for vessel assessment and intervention recommendation
WO2018098118A1 (en) * 2016-11-23 2018-05-31 Mayo Foundation For Medical Education And Research System and method for quantifying luminal stenosis using multi-energy computed tomography imaging

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
D. P. Clark, 외. Multi-energy CT decomposition using convolutional neural networks. Proc. SPIE 10573, Medical Imaging 2018: Physics of Medical Imaging, 105731O (2018. 3.9. 공개)*

Also Published As

Publication number Publication date
US11596371B2 (en) 2023-03-07
EP3657444A1 (en) 2020-05-27
KR20200061236A (ko) 2020-06-02
US20200163637A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
US10559101B2 (en) Method and apparatus for generating x-ray tomographic image data
US10952694B2 (en) Method and apparatus for correcting computed tomography image
US9140803B2 (en) Acquisition protocol assessment apparatus
US10213179B2 (en) Tomography apparatus and method of reconstructing tomography image
JP2020500579A (ja) 撮像システムのための収集パラメータを選択すること
JP5727508B2 (ja) コンピュータ断層撮影装置
KR102628041B1 (ko) 단층 영상 처리 장치, 방법, 및 컴퓨터 프로그램 제품
JP2007068992A (ja) 投影画像を用いた3dcadのシステム及び方法
KR102559031B1 (ko) 단층 영상 처리 장치 및 방법
KR101946576B1 (ko) 의료 영상 장치 및 의료 영상 처리 방법
JP6345881B2 (ja) 画像データ用のテクスチャ解析マップ
CN105793894B (zh) 根据图像数据来进行骨骼分割
KR20170088742A (ko) 워크스테이션 이를 포함하는 의료영상 장치, 및 그 제어방법
CN111540025A (zh) 预测用于图像处理的图像
CN111199566A (zh) 医疗图像处理方法、装置、存储介质及计算机设备
EP3680860A1 (en) Tomographic imaging apparatus and method of generating tomographic image
US10818045B2 (en) Medical imaging apparatus and method of processing medical image
CN108618797B (zh) 用于设置多能量ct图像表示的对比度的方法和相关设备
KR102620359B1 (ko) 워크 스테이션 이를 포함하는 의료영상 장치, 및 그 제어방법
EP4123572A2 (en) An apparatus and a method for x-ray image restoration
US10176568B2 (en) Tomographic apparatus and method
JP2023547526A (ja) 断層撮影画像データの画像レンダリング方法
US20190311503A1 (en) Apparatus and method for generating tomography image
EP4104767A1 (en) Controlling an alert signal for spectral computed tomography imaging
US10687766B2 (en) System to detect features using multiple reconstructions

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant