KR20220068968A - 엑스선 장치 및 이의 의료 영상 획득 - Google Patents

엑스선 장치 및 이의 의료 영상 획득 Download PDF

Info

Publication number
KR20220068968A
KR20220068968A KR1020220058630A KR20220058630A KR20220068968A KR 20220068968 A KR20220068968 A KR 20220068968A KR 1020220058630 A KR1020220058630 A KR 1020220058630A KR 20220058630 A KR20220058630 A KR 20220058630A KR 20220068968 A KR20220068968 A KR 20220068968A
Authority
KR
South Korea
Prior art keywords
image
radiographic image
scatter
network model
original
Prior art date
Application number
KR1020220058630A
Other languages
English (en)
Other versions
KR102665022B1 (ko
Inventor
송정용
이병원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20220068968A publication Critical patent/KR20220068968A/ko
Application granted granted Critical
Publication of KR102665022B1 publication Critical patent/KR102665022B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4007Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units
    • A61B6/4014Arrangements for generating radiation specially adapted for radiation diagnosis characterised by using a plurality of source units arranged in multiple source-detector units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5282Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5294Devices using data or image processing specially adapted for radiation diagnosis involving using additional data, e.g. patient information, image labeling, acquisition parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/465Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • A61B6/544Control of apparatus or devices for radiation diagnosis involving control of exposure dependent on patient size
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/56Details of data transmission or power supply, e.g. use of slip rings
    • A61B6/563Details of data transmission or power supply, e.g. use of slip rings involving image data transmission via a network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • A61B6/584Calibration using calibration phantoms determining position of components of the apparatus or device using images of the phantom
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Business, Economics & Management (AREA)
  • Image Analysis (AREA)
  • Tourism & Hospitality (AREA)
  • Child & Adolescent Psychology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)

Abstract

본 개시의 엑스선 장치의 의료 영상 획득 방법은 촬영 대상체에 대한 원본 방사선 영상(original radiation image) 및 상기 대상체의 촬영 조건 정보를 획득하는 동작, 상기 원본 방사선 영상 및 상기 촬영 조건 정보를, 스캐터 방사선을 추정하도록 설정된(configured) 학습 네트워크 모델(learning network model)로 입력하여, 상기 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득하는 동작, 및 상기 원본 방사선 영상 및 상기 스캐터 방사선 영상에 기반하여, 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하는 동작을 포함하고, 상기 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 스캐터 방사선 영상들 및 상기 복수 개의 스캐터 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델인 것을 특징으로 한다.

Description

엑스선 장치 및 이의 의료 영상 획득{X-RAY IMAGE APPARATUS AND METHOD FOR OBTAINING MEDICALIMAGE THEREOF}
본 개시는 엑스선 장치 및 이의 의료 영상 획득 방법에 관한 것으로, 특히, 엑스선 장치가 대상체를 대상으로 검출한 방사선 영상을 처리하여 개선된 품질의 의료 영상을 획득하는 방법 및 이를 실행하기 위한 엑스선 장치에 관한 것이다.
엑스선 장치는 방사선 영상을 획득하기 위하여 엑스선을 대상체에 조사할 수 있다. 이 경우, 엑스선 디텍터가 검출하는 방사선에는 중요한 정보를 포함하는 주 방사선뿐만 아니라 영상 품질을 저하시키는 스캐터(또는, 산란) 방사선이 포함될 수 있다.
이 경우, 스캐터 방사선을 필터링하기 위하여, 대상체와 엑스선 디텍터 사이에 스캐터 방지 그리드(anti-scatter physical grid)가 이용될 수 있다.
스캐터 방지 그리드를 이용하는 경우에는, 엑스선 디텍터와 엑스선 조사부의 튜브(tube) 간의 정확한 정렬(alignment)이 요구된다. 그러나, 엑스선 디텍터와 엑스선 조사부의 튜브 간의 정렬이 어려워서 사용자가 스캐터 방지 그리드의 사용을 기피할 수 있다..
또한, 스캐터 방지 그리드는 엑스선 디텍트와의 탈부착 및 소독 관리가 용이하지 않아서 사용을 기피하는 상황이 발생될 수 있다.
스캐터 방지 그리드를 사용하지 않는 경우에는, 엑스선 영상의 품질이 많이 저하될 수 있으며, 이에 따라 엑스선 영상의 품질을 알고리즘으로 보상할 필요가 있다.
예로, 엑스선 디텍터가 검출하는 원본 방사선 영상으로부터 스캐터 방사선 영상을 제거하기 위하여, 신체 부위의 영역 별 또는 두께 별 특징을 고려하여 복수의 스캐터 커널(scatter kernel)들로 구성된 커널 데이터베이스가 이용될 수 있다. 이 경우, 원본 방사선 영상이 입력되면, 엑스선 장치는 신체 부위의 영역 별 또는 두께 별로 서로 다른 스캐터 커널을 적용하여 스캐터 방사선이 제거된 방사선 영상을 획득할 수 있다
엑스선 장치가 복수의 스캐터 커널들을 적용하여 스캐터 방사선을 제거하기 위해서는 신체 부위 별 특징을 정밀히 추정할 필요성이 요구된다.
예로, 신체 부위의 영역 별로 스캐터 커널을 적용하는 경우, 엑스선 장치는 신체 부위의 영역 별 특징 및 신체 부위 간의 연결 부분을 정밀히 측정할 필요성이 요구된다. 또한, 신체 부위의 두께 별로 서로 다른 스캐터 커널을 적용하는 경우, 엑스선 장치는 신체 부위의 두께를 정밀히 측정할 필요성이 요구된다.
또한, 사람의 신체는 환자의 체형, 환자의 건강 상태를 고려하여 무수한 물질의 조합 및 변화가 가능하기 때문에, 제한된 개수의 복수의 스캐터 커널들로 구성된 커널 데이터베이스를 이용하는 경우에는 방사선 영상의 품질을 개선시키는데 한계가 수반될 수 있다.
이에 따라, 상기 문제점을 극복하고 방사선 영상 품질을 향상시키기 위하여, 최근의 신규 기술이 고려될 수 있다. 예로, 최근에는 데이터베이스의 단순 검색에서 벗어나서, 인공 지능 시스템을 활용한 영상 처리 기술이 등장하고 있다. 인공 지능 시스템은 인간 수준의 지능을 구현하는 컴퓨터 시스템으로서 기계가 스스로 학습하고 판단하며, 사용할수록 인식률이 향상되는 시스템이다. 인공 지능 기술은 입력 데이터들의 특징을 스스로 분류/학습하는 알고리즘을 이용하는 학습 네트워크 모델을 활용하여 인간 두뇌의 인지, 판단 등의 기능을 모사하는 요소 기술들로 구성된다.
요소 기술들은, 예로, 인간의 언어/문자를 인식하는 언어적 이해 기술, 사물을 인간의 시각처럼 인식하는 시각적 이해 기술, 정보를 판단하여 논리적으로 추론하고 예측하는 추론/예측 기술, 인간의 경험 정보를 지식데이터로 처리하는 지식 표현 기술 및 차량의 자율 주행, 로봇의 움직임을 제어하는 동작 제어 기술 중 적어도 하나를 포함할 수 있다. 이 가운데, 시각적 이해는 사물을 인간의 시각처럼 인식하여 처리하는 기술로서, 객체 인식, 객체 추적, 영상 검색, 사람 인식, 장면 이해, 공간 이해, 영상 개선 등을 포함한다.
따라서, 본 개시의 목적은 이러한 인공 지능 기술을 활용하여, 엑스선 장치가 대상체를 대상으로 검출하는 방사선 영상의 품질을 개선시키는데 목적이 있다.
그밖에, 본 개시에서 해결하고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야의 통상의 지식을 가진 자에게 명확하게 이해될 수 있다.
본 개시에 일 실시예에 따른 엑스선 장치의 의료 영상 획득 방법은, 촬영 대상체에 대한 원본 방사선 영상(original radiation image) 및 상기 대상체의 촬영 조건 정보를 획득하는 동작, 상기 원본 방사선 영상 및 상기 촬영 조건 정보를, 스캐터 방사선을 추정하도록 설정된(configured) 학습 네트워크 모델(learning network model)로 입력하여, 상기 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득하는 동작, 및 상기 원본 방사선 영상 및 상기 스캐터 방사선 영상에 기반하여, 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하는 동작을 포함하고, 상기 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 스캐터 방사선 영상들 및 상기 복수 개의 스캐터 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.
본 개시의 일 실시예에 따른 엑스선 장치의 의료 영상 획득 방법은, 촬영 대상체에 대한 원본 방사선 영상 및 상기 대상체의 촬영 조건 정보를 획득하는 동작, 상기 원본 방사선 영상 및 상기 촬영 조건 정보를, 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델(learning network model)로 입력하여 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하는 동작을 포함하고, 상기 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 원본 방사선 영상들 및 상기 복수 개의 원본 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.
본 개시에 일 실시예에 따른 엑스선 장치는, 대상체를 촬영하기 위하여 엑스선을 조사하는 엑스선 조사부, 상기 엑스선 조사부로부터 조사되어 상기 대상체를 투과한 엑스선을 검출하는 엑스선 디텍터, 상기 엑스선 조사부 및 상기 엑스선 디텍테와 전기적으로 연결되어 상기 엑스선 장치를 제어하는 제어부, 및 상기 제어부와 전기적으로 연결된 메모리를 포함하고, 상기 메모리는 상기 엑스선 장치가 동작 시에, 상기 제어부가, 상기 엑스선 디텍터로부터 획득된 상기 대상체에 대한 원본 방사선 영상 및 상기 대상체의 촬영 조건 정보를, 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델(learning network model)로 입력하여, 상기 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득하고, 상기 원본 방사선 영상 및 상기 스캐터 방사선 영상에 기반하여, 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하도록 제어하는 명령어들을 저장하고, 상기 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 스캐터 방사선 영상들 및 상기 복수 개의 스캐터 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.
본 개시에 일 실시예에 따른 엑스선 장치는, 대상체를 촬영하기 위하여 엑스선을 조사하는 엑스선 조사부, 상기 엑스선 조사부로부터 조사되어 상기 대상체를 투과한 엑스선을 검출하는 엑스선 디텍터, 상기 엑스선 조사부 및 상기 엑스선 디텍터와 전기적으로 연결되어 상기 엑스선 장치를 제어하는 제어부, 및 상기 제어부와 전기적으로 연결된 메모리를 포함하고, 상기 메모리는 상기 엑스선 장치가 동작 시에, 상기 제어부가, 상기 엑스선 디텍터로부터 획득된 상기 대상체에 대한 원본 방사선 영상 및 상기 대상체의 촬영 조건 정보를, 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델(learning network model)로 입력하여, 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하도록 제어하는 명령어들을 저장하고, 상기 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 원본 방사선 영상들 및 상기 복수 개의 원본 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.
본 개시에 일 실시예에 따른 컴퓨터로 읽을 수 있는 기록매체를 포함하는 컴퓨터 프로그램 제품은, 상기 원본 방사선 영상 및 상기 촬영 조건 정보를, 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델(learning network model)로 입력하여, 상기 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득하는 동작, 및 상기 원본 방사선 영상 및 상기 스캐터 방사선 영상에 기반하여, 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하는 동작을 엑스선 장치가 수행하도록 하는 명령어들을 포함하고, 상기 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 스캐터 방사선 영상들 및 상기 복수 개의 스캐터 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.
본 개시에 일 실시예에 따른 컴퓨터로 읽을 수 있는 기록매체를 포함하는 컴퓨터 프로그램 제품은, 촬영 대상체에 대한 원본 방사선 영상 및 상기 대상체의 촬영 조건 정보를 획득하는 동작, 상기 원본 방사선 영상 및 상기 촬영 조건 정보를, 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델(learning network model)로 입력하여 상기 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득하는 동작을 엑스선 장치가 수행하도록 하는 명령어들을 포함하고, 상기 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델은, 복수 개의 원본 방사선 영상들 및 상기 복수 개의 원본 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 학습된 학습 네트워크 모델일 수 있다.
본 개시에 따르면, 학습 네트워크 모델을 이용하여 원본 방사선 영상에서 스캐터 방사선을 처리하는 경우, 엑스선 장치가 획득하는 의료 영상의 품질이 향상될 수 있다.
또한, 기존에는 스캐터 방사선의 처리를 위하여 촬영 대상체의 특징 및 촬영 조건 정보를 고려한 복수 개의 스캐터 커널들이 각각 필요하였으나, 본 개시의 실시예에 따르면 학습 네트워크 모델에 의하여 통합적인 스캐터 방사선 영상의 추정이 가능하게 된다. 이에 따라, 사용자가 규칙성을 정의하고 직접 설계하지 않아도, 네트워크가 수많은 뉴론(neuron)들 및 이들의 결합(combination)에 기반하여 학습되는 영상들 간의 규칙성을 해석하고 모델링하는 것이 가능하게 된다.
또한, 의료 영상의 지속적인 품질 개선을 위하여, 신규 스캐터 커널을 생성할 필요 없이, 기 생성된 학습 네트워크 모델을 지속적으로 학습시킴으로써, 관리가 용이하고 효율적인 의료 영상의 획득이 가능하게 된다.
그 밖에, 본 개시에서 얻을 수 있는 효과는 언급한 효과들로 제한되지 않으며, 언급하지 않은 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있다.
도 1은, 본 개시의 일 실시예에 따른 엑스선 장치의 구성을 도시하는 도면이다.
도 2는, 본 개시의 일 실시예에 따른 모바일 엑스선 장치의 구성을 도시하는 도면이다.
도 3은, 본 개시의 일 실시예에 따른 휴대용 엑스선 디텍터의 외관도이다.
도 4는, 본 개시의 일 실시예에 따른 엑스선 장치가 의료 영상을 획득하는 과정을 나타내는 도면이다.
도 5 내지 도 7은, 본 개시의 일 실시예에 따른 엑스선 장치가 학습 네트워크 모델을 적용하여 의료 영상을 획득하는 과정을 나타내는 도면들이다.
도 8은, 본 개시의 일 실시예에 따른 스캐터 방사선의 제거 정도를 설정하기 위한 UI를 나타내는 도면이다.
도 9 및 도 10은, 본 개시의 일 실시예에 따른 엑스선 장치가 학습 네트워크 모델을 적용하여 의료 영상을 획득하는 과정을 나타내는 도면들이다.
도 11은, 본 개시의 일 실시예에 따른 스캐터 방사선 처리 효과를 나타내는 도면이다.
도 12 내지 도 13b는, 본 개시의 일 실시예에 따른 엑스선 장치가 학습 네트워크 모델을 이용하여 뼈 구조가 제거된 의료 영상을 획득하는 과정을 나타내는 도면들이다.
도 14 및 도 15는, 본 개시의 일 실시예에 따른 엑스선 장치가 의료 영상 획득 방법을 나타내는 흐름도들이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 영상은 자기 공명 영상(MRI) 장치, 컴퓨터 단층 촬영(CT) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다.
도 1은 일 실시예에 따른 엑스선 장치의 구성을 도시하는 도면이다. 도 1에서는 고정식 엑스선 장치를 예로 들어 설명한다.
도 1을 참조하면, 엑스선 장치(100)는 엑스선을 발생시켜 조사하는 엑스선 조사부(110), 엑스선 조사부로부터 조사되어 대상체를 투과한 엑스선을 검출하는 엑스선 디텍터(200), 및 사용자로부터 명령을 입력 받고 정보를 제공하는 워크스테이션(180)을 포함한다. 또한, 엑스선 장치(100)는 입력된 명령에 따라 엑스선 장치(100)를 제어하는 제어부(120) 및 외부 기기와 통신하는 통신부(140)를 포함할 수 있다.
제어부(120) 및 통신부(140)의 구성요소 중 일부 또는 전부는 워크스테이션(180)에 포함되거나 또는 워크스테이션(180)과 별도로 마련될 수 있다.
엑스선 조사부(110)는 엑스선을 발생시키는 엑스선 소스와, 엑스선 소스에서 발생되는 엑스선의 조사 영역을 조절하는 콜리메이터(collimator)를 구비할 수 있다.
엑스선 장치(100)가 배치되는 검사실 천장에는 가이드 레일(30)이 설치될 수 있고, 가이드 레일(30)을 따라 이동하는 이동 캐리지(40)에 엑스선 조사부(110)를 연결하여 대상체(P)에 대응되는 위치로 엑스선 조사부(110)를 이동시킬 수 있고, 이동 캐리지(40)와 엑스선 조사부(110)는 절첩 가능한 포스트 프레임(50)을 통해 연결되어 엑스선 조사부(110)의 높이를 조절할 수 있다.
워크스테이션(180)에는 사용자의 명령을 입력 받는 입력부(181) 및 정보를 표시하는 디스플레이부(182)가 마련될 수 있다.
입력부(181)는 촬영 프로토콜, 촬영 조건 정보, 촬영 타이밍, 엑스선 조사부(110)의 위치 제어 등을 위한 명령을 입력 받을 수 있다. 입력부(181)는 키보드, 마우스, 터치스크린, 음성 인식기, 등을 포함할 수 있다.
디스플레이부(182)는 사용자의 입력을 가이드하기 위한 화면, 엑스선 영상, 엑스선 장치(100)의 상태를 나타내는 화면 등을 표시할 수 있다.
제어부(120)는 사용자로부터 입력된 명령에 따라 엑스선 조사부(110)의 촬영 타이밍, 촬영 조건 정보 등을 제어할 수 있고, 엑스선 디텍터(200)로부터 수신된 이미지 데이터를 이용하여 의료 이미지를 생성할 수 있다. 또한, 제어부(120)는 촬영 프로토콜 및 대상체(P)의 위치에 따라 엑스선 조사부(110)나 엑스선 디텍터(200)가 장착된 장착부(14, 24)의 위치 또는 자세를 제어할 수도 있다.
제어부(120)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램이 저장된 메모리 및 저장된 프로그램을 실행하는 프로세서를 포함할 수 있고, 워크스테이션(180)에 마련될 수 있다. 제어부(120)는 단일 프로세서를 포함할 수도 있고, 복수의 프로세서를 포함할 수도 있는바, 후자의 경우에는 복수의 프로세서가 하나의 칩 상에 집적될 수도 있고, 물리적으로 분리될 수도 있다.
제어부(120)가 복수의 프로세서를 포함하는 경우에 복수의 프로세서 중 일부는 워크 스테이션(180)에, 다른 일부는 서브 유저인터페이스(80)나 이동 캐리지(40) 기타 다른 장치 내에 마련되는 것도 가능하다. 예를 들어, 워크 스테이션(180)에 마련된 프로세서는 의료 영상을 생성하기 위한 영상 처리 등의 제어를 수행하고, 서브 유저 인터페이스 또는 이동 캐리지에 마련된 프로세서는 엑스선 조사부(110)나 엑스선 디텍터(200)의 이동과 관련된 제어를 수행할 수 있다.
엑스선 장치(100)는 통신부(140)를 통해 외부 장치(예를 들면, 외부의 서버(310), 의료 장치(320) 및 휴대용 단말(330; 스마트폰, 태브릿 PC, 웨어러블 기기 등))와 연결되어 데이터를 송신하거나 수신할 수 있다.
통신부(140)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
또한, 통신부(140)가 외부 장치로부터 제어 신호를 수신하고, 수신된 제어 신호를 제어부(120)에 전달하여 제어부(120)로 하여금 수신된 제어 신호에 따라 엑스선 장치(100)를 제어하도록 하는 것도 가능하다.
또한, 제어부(120)는 통신부(140)를 통해 외부 장치에 제어 신호를 송신함으로써, 외부 장치를 제어부의 제어 신호에 따라 제어하는 것도 가능하다. 예를 들어, 외부 장치는 통신부(140)를 통해 수신된 제어부(120)의 제어 신호에 따라 외부 장치의 데이터를 처리할 수 있다.
또한, 통신부(140)는 엑스선 장치(100)의 구성요소들 간에 통신을 가능하게 하는 내부 통신 모듈을 더 포함할 수도 있다. 외부 장치에는 엑스선 장치(100)를 제어할 수 있는 프로그램이 설치될 수 있는 바, 이 프로그램은 제어부(120)의 동작 중 일부 또는 전부를 수행하는 명령어를 포함할 수 있다.
프로그램은 휴대용 단말(330)에 미리 설치될 수도 있고, 휴대용 단말(330)의 사용자가 어플리케이션을 제공하는 서버로부터 프로그램을 다운로딩하여 설치하는 것도 가능하다. 어플리케이션을 제공하는 서버에는 해당 프로그램이 저장된 기록매체가 포함될 수 있다.
한편, 엑스선 디텍터(200)는 스탠드(20)나 테이블(10)에 고정된 고정형 엑스선 디텍터로 구현될 수도 있고, 장착부(14, 24)에 착탈 가능하게 장착되거나, 임의의 위치에서 사용 가능한 휴대용 엑스선 디텍터(portable x-ray detector)로 구현될 수도 있다. 휴대용 엑스선 디텍터는 데이터 전송 방식과 전원 공급 방식에 따라 유선 타입 또는 무선 타입으로 구현될 수 있다.
엑스선 디텍터(200)는 엑스선 장치(100)의 구성 요소로 포함될 수도 있고, 포함되지 않을 수도 있다. 후자의 경우, 엑스선 디텍터(200)는 사용자에 의해 엑스선 장치(100)에 등록될 수 있다. 또한, 두 경우 모두 엑스선 디텍터(200)는 통신부(140)를 통해 제어부(120)와 연결되어 제어 신호를 수신하거나 이미지 데이터를 송신할 수 있다.
엑스선 조사부(110)의 일 측면에는 사용자에게 정보를 제공하고 사용자로부터 명령을 입력 받는 서브 유저 인터페이스(80)가 마련될 수 있고, 워크 스테이션(180)의 입력부(181) 및 디스플레이부(182)가 수행하는 기능 중 일부 또는 전부가 서브 유저 인터페이스(80)에서 수행될 수 있다.
도 1은 검사실의 천장에 연결된 고정식 엑스선 장치에 대해 도시하고 있지만, 엑스선 장치(100)는 C-암(arm) 타입 엑스선 장치, 모바일 엑스선 장치 등 당업자에게 자명한 범위 내에서 다양한 구조의 엑스선 장치를 포함할 수 있다.
도 2는 엑스선 장치의 일 예로서, 모바일 엑스선 장치를 도시한 도면이다.
도 1과 동일한 부호는 동일한 기능을 수행하므로 도 1에 설명된 부호에 대한 설명은 생략한다.
엑스선 장치(100)는 전술한 실링 타입뿐만 아니라 모바일 타입으로도 구현 가능하다. 엑스선 장치(100)가 모바일 엑스선 장치로 구현되는 경우에는 엑스선 조사부(110)가 연결된 본체(101)가 자유롭게 이동 가능하고 엑스선 조사부(110)와 본체(101)를 연결하는 암(103) 역시 회전 및 직선 이동이 가능하기 때문에 엑스선 조사부(110)를 3차원 공간 상에서 자유롭게 이동시킬 수 있다.
본체(101)에는 엑스선 디텍터(200)를 보관하는 보관부(105)가 마련될 수 있다. 또한, 보관부(105) 내부에는 엑스선 디텍터(200)를 충전할 수 있는 충전 단자가 마련되어 엑스선 디텍터(200)를 보관하면서 충전까지 함께 수행할 수 있다.
입력부(151), 디스플레이부(152), 제어부(120) 및 통신부(140)는 본체(101)에 마련될 수 있고, 엑스선 디텍터(200)가 획득한 이미지 데이터는 본체(101)로 전송되어 영상 처리를 거친 후에 디스플레이부(152)에 표시되거나, 통신부(140)를 통해 외부의 장치로 전송될 수 있다.
또한, 제어부(120) 및 통신부(140)는 본체(101)와 별도로 마련될 수도 있으며, 제어부(120) 및 통신부(140)의 구성요소 중 일부만 본체(101)에 마련되는 것도 가능하다.
도 1 및 도 2의 엑스선 장치(100)의 메모리(150)에는 본 개시의 실시예에 따른, 학습 네트워크 모델(160)이 저장될 수 있다.
학습 네트워크 모델(160)은 인간의 뇌 구조를 컴퓨터 상에서 모의하도록 설계될 수 있다.
예로, 학습 네트워크 모델(160)은 인간의 신경망의 뉴런(neuron)을 모의하는, 가중치를 가지는 복수의 네트워크 노드들을 포함할 수 있다. 복수의 네트워크 노드들은 뉴런이 시냅스(synapse)를 통하여 신호를 주고 받는 시냅틱(synaptic) 활동을 모의하도록 각각 연결 관계를 형성할 수 있다.
학습 네트워크 모델(160)은, 일 예로, 인공 지능 신경망 모델, 또는 신경망 모델에서 발전한 딥 러닝 네트워크 모델을 포함할 수 있다. 딥 러닝 네트워크 모델에서 복수의 네트워크 노드들은 서로 다른 깊이(또는, 레이어)에 위치하면서 컨볼루션(convolution) 연결 관계에 따라 데이터를 주고 받을 수 있다.
학습 네트워크 모델(160)은, 일 예로, 소프트웨어 모듈로 구현될 수도 있다. 소프트웨어 모듈(예로, 명령어(instruction)를 포함하는 프로그램 모듈)로 구현되는 경우, 학습 네트워크 모델(160)은 컴퓨터로 읽을 수 있는 판독 가능한 기록매체(computer readable media)에 저장될 수 있다. 이 경우, 컴퓨터로 읽을 수 있는 판독 가능한 기록매체(computer readable media)는 도 1의 엑스선 장치(100)의 메모리(150)의 적어도 일부가 될 수 있다.
다른 예로, 학습 네트워크 모델(160)은 하드웨어 칩 형태로 집적되어 전술한 제어부(120)의 일부가 될 수도 있다. 예로, 학습 네트워크 모델(160)은 인공 지능(AI; artificial intelligence)을 위한 전용 하드웨어 칩 형태로 제작될 수도 있고, 또는 기존의 범용 프로세서(예: CPU 또는 application processor) 또는 그래픽 전용 프로세서(예: GPU)의 일부로 제작될 수도 있다.
또 다른 예로, 학습 네트워크 모델(160)은 소프트웨어 모듈 또는 하드웨어 칩 형태로 제작되어 외부의 서버(310)에 위치할 수도 있다.
이 경우, 엑스선 장치(100)는 영상 처리를 위한 입력 데이터를 통신부(140)를 통하여 외부의 서버(310)로 전송할 수 있다. 입력 데이터는, 예로, 엑스선 장치(100)에서 검출된 원본 방사선 영상을 포함할 수 있다. 원본 방사선 영상은, 엑스선 디텍터(200)에 입사된 방사선에 기반한 전체 방사선 영상을 나타낼 수 있다. 원본 방사선 영상은, 예로, 일 차로 처리된 방사선 영상, 초기 방사선 영상 또는 로우(raw) 방사선 영상으로 칭할 수도 있다.
외부의 서버(310)는 엑스선 장치(100)로부터 수신된 입력 데이터를 학습 네트워크 모델(160)로 입력하여, 개선된 의료 영상을 획득하고, 획득된 의료 영상을 엑스선 장치(100)의 통신부(140)로 전송할 수 있다.
외부의 서버(310)에 위치한 학습 네트워크 모델(160)이 소프트웨어 모듈로 구현되는 경우, 학습 네트워크 모델(160)은 컴퓨터로 읽을 수 있는 판독 가능한 기록매체에 저장될 수 있다. 이 경우, 컴퓨터로 읽을 수 있는 판독 가능한 기록매체는 도 1의 서버(310)의 메모리(미도시)가 될 수 있다.
학습 네트워크 모델(160)은 외부의 서버(310)에서 생성될 수 있다. 외부의 서버(310)는, 예로, 엑스선 장치(100)의 제조사의 서버, 관리자의 서버 또는 제조사 또는 관리자가 위탁 또는 임대한 제3 자의 서버가 될 수 있다. 외부의 서버(310)는 학습 네트워크 모델(160)을 생성 또는 업데이트만 하는 서버일 수도 있고, 또는, 엑스선 장치(100)로부터 입력 데이터를 수신하고, 학습 네트워크 모델(160)을 이용하여 처리된 개선된 영상을 제공하는 서버가 될 수도 있다.
외부의 서버(310)는 학습 데이터를 이용하여 학습 네트워크 모델을 학습시킬 수 있다. 학습 데이터는, 예로, 엑스선 장치(100) 또는 다른 엑스선 장치에서 촬영된 원본 방사선 영상, 상기 원본 방사선 영상에 관한 스캐터 영상 및 스캐터 방사선 처리가 수행된 의료 영상 중 적어도 하나가 될 수 있다.
학습 데이터는 엑스선 장치(100)의 제조사 또는 관리자에 의하여 병원 또는 의사로부터 수집될 수도 있고, 또는, 엑스선 장치(100)에서 학습 네트워크 모델(160)을 이용하여 획득한 결과가 학습 데이터로 다시 이용될 수도 있다.
학습 네트워크 모델(160)은 주기적 또는 비주기적으로 업데이트될 수 있다. 비주기적으로 업데이트되는 경우는, 예로, 관리자의 요청이 있거나 또는 학습 데이터가 일정 용량 이상 수집된 경우가 될 수 있다.
다양한 실시예에 따르면, 학습 네트워크 모델(160)의 생성 과정이 엑스선 장치(100)에서 직접 수행될 수도 있다. 즉, 엑스선 장치(100)는 학습 네트워크 모델(160)의 학습, 업데이트 및 학습 네트워크 모델(160)을 이용한 영상 처리까지 수행할 수 있다.
또한, 외부의 서버(310)는 복수의 서버들로 구성될 수 있다. 복수의 서버는, 예로, 클라우드 서버를 포함할 수 있다. 클라우드 서버는 인터넷 환경에서 서로 연결된 다양한 장치(서버, 클라이언트 등)의 리소스를 이용하여 데이터를 저장 및 처리하는 시스템을 포함할 수 있다.
본 개시의 실시예에 따르면, 학습 네트워크 모델은(160)은 스캐터 방사선 영상을 추정하도록 설정될(configured) 수도 있으며, 또는, 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정될 수도 있다. 또는, 학습 네트워크 모델(160)은 뼈 구조 방사선 영상을 추정하도록 설정될 수도 있다.
상기 학습 네트워크 모델(160)을 이용하여 스캐터 방사선 영상, 스캐터 방사선이 처리된 의료 영상 및 뼈 구조 방사선 영상을 추정하는 예는 이하 상세히 후술될 예정으로 중복되는 설명은 생략한다.
한편, 본 개시에서 학습 네트워크 모델(160)이 스캐터 영상을 추정하기 위하여 이용되는 경우, 학습 네트워크 모델(160)이 기존의 복수의 스캐터 커널들을 각각 이용하는 것이 아닌 복수의 스캐터 커널들의 통합된 형태를 나타내는 것으로 간주하여 통합 스캐터 네트워크 모델로 명명될 수도 있다.
여기서, 학습 네트워크 모델(160)이 전술한 목적을 가지고 설정된다는 것은, 학습 네트워크 모델(160)이 다양한 사례에 대응 가능한 일반적인 학습 네트워크 모델(160)이 아닌 특정 목적을 위하여 학습되고, 이에 따라 학습 네트워크 모델(160)의 내부가 상기 목적에 맞게 구현된 것을 의미할 수 있다.
도 3은 휴대용 엑스선 디텍터의 외관도이다.
전술한 바와 같이, 엑스선 장치(100)에 사용되는 엑스선 디텍터(200)는 휴대용 엑스선 디텍터로 구현될 수 있다. 이 경우, 엑스선 디텍터(200)는 전원을 공급하는 배터리를 포함하여 무선으로 동작할 수도 있고, 도 3에 도시된 바와 같이, 충전 포트(201)가 별도의 전원 공급부와 케이블(C)에 의해 연결되어 동작할 수도 있다.
엑스선 디텍터(200)의 외관을 형성하는 케이스(203)의 내부에는 엑스선을 검출하여 이미지 데이터로 변환하는 검출 소자, 이미지 데이터를 일시적 또는 비일시적으로 저장하는 메모리, 엑스선 장치(100)로부터 제어 신호를 수신하거나 엑스선 장치(100)에 이미지 데이터를 송신하는 통신 모듈과, 배터리가 마련될 수 있다. 또한, 메모리에는 디텍터의 이미지 보정 정보 및 엑스선 디텍터(200)의 고유의 식별 정보가 저장될 수 있고, 엑스선 장치(100)와 통신할 때에 저장된 식별 정보를 함께 전송할 수 있다.
도 4는 본 개시의 실시예에 따라 엑스선 장치가 의료 영상을 획득하는 과정을 도시하는 도면이다.
도 4의 (a)에서 엑스선 조사부(110)에서 대상체로 엑스선이 조사되면, 엑스선 디텍터(200)는 대상체를 투과한 방사선을 검출할 수 있다. 엑스선 디텍터(200)에 입사되는 방사선은 중요한 정보를 포함하는 주 방사선(401) 및 영상의 품질을 저하시키는 스캐터 방사선(402)을 포함할 수 있다.
엑스선 디텍터(200)는 주 방사선(401) 및 스캐터 방사선(402)에 따라 생성된 원본 영상 데이터를 워크스테이션(180) 또는 본체(101)로 전송할 수 있다.
워크스테이션(180) 또는 본체(101)는 원본 방사선 영상이 수신되면, 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득할 수 있다.
구체적으로, 도 4의 (b)를 참조하면, 엑스선 디텍터(200)로부터 원본 방사선 영상(411)이 획득되면, 엑스선 장치(100)는 스캐터(scatter) 추정 과정(421)을 수행할 수 있다. 이 경우, 엑스선 장치(100)는 스캐터가 제거된 방사선을 추정하도록 설정된 학습 네트워크 모델(421-1)을 이용하여 스캐터 추정 과정(421)을 수행할 수 있다.
여기서, 학습 네트워크 모델(421-1)은, 예로, 인공 지능 신경망 모델 또는 딥 러닝(deep learning) 네트워크 모델을 포함할 수 있다. 또한, 스캐터를 추정한다는 것은, 예로, 원본 방사선 영상(411)에 분포되어 있는 스캐터 필드, 스캐터 집합, 스캐터 밀도, 스캐터 분포 형태 및 스캐터 분산 중 적어도 하나를 추정하는 것을 포함할 수 있다.
학습 네트워크 모델(421-1)을 적용한 스캐터 추정 과정(421)을 통하여 스캐터 방사선 영상(412)이 획득되면, 엑스선 장치(100)는 원본 방사선 영상(411) 및 스캐터 방사선 영상(412)을 입력으로 스캐터 처리 과정(422)(또는, 스캐너 보정(correction) 과정)를 수행하여 스캐터 방사선이 처리된 의료 영상을 획득할 수 있다. 여기서, 스캐터 방사선이 처리된다는 것은, 스캐터 방사선의 적어도 일부가 제거되거나, 스캐터 방사선의 적어도 일부의 세기가 옅어지거나 또는 스캐터 방사선의 적어도 일부가 필터링되는 것을 포함할 수 있다.
스캐터가 처리된 방사선 영상이 획득되면, 엑스선 장치(100)는 후처리 과정(423)을 통하여 최종 의료 영상(413)을 획득할 수 있다. 후처리 과정(423)은 예로, 입력된 영상의 노이즈를 제거하거나 콘트라스트(contrast)를 조절하는 과정을 포함할 수 있다.
전술한, 스캐터가 처리된 방사선 영상을 획득하는 과정을 수학식으로 나타내면 아래와 같을 수 있다.
Figure pat00001
[수학식 1]에서, T 는 엑스선 디텍터(200)에 입사된 방사선에 기반한 전체 방사선 영상을 나타낸다. 상기 전체 방사선 영상은 원본 방사선 영상 또는 로우(raw) 방사선 영상으로 칭할 수 있다.
원본 방사선 영상은, 일반적으로 스캐터 방지 그리드를 사용하지 않은 상황에서, 엑스선 디텍터(200)로부터 수신된 이미지 데이터에 기반하는 방사선 영상일 수 있으나, 다양한 실시예에 따르면, 스캐터 방지 그리드를 사용한 상황에서 엑스선 디텍터(200)로부터 수신된 방사선 영상이 원본 방사선 영상의 대상이 될 수도 있다.
S(T) 는 전술한 스캐터 추정 과정을 통하여 추정된 스캐터 방사선 영상을 나타낸다.
w p 는 스캐터 방지 그리드의 삽입 전 후의 차이를 고려하여 계산된 원본 방사선 영상의 가충지 값을 나타낸다.
P 는 중요한 정보를 포함하는 주 방사선 영상을 나타낸다. [수학식 1]에 따르면, 주 방사선 영상은 전체 방사선 영상에 가중치를 부여한 영상에서 추정된 스캐터 방사선 영상을 제외한 영상이 될 수 있다.
본 개시의 실시예에 따르면, 엑스선 장치(100)는 다양한 영상 촬영 조건 정보 및 대상체의 특성에 능동적으로 반응하기 위하여, 정교한 스캐터의 추정이 가능한 알고리즘 및 응용 어플리케이션을 이용할 수 있다.
구체적으로, 본 개시의 엑스선 장치(100)는 학습 네트워크 모델(예로, 딥 러닝 네트워크 모델)을 이용하여 스캐터를 추정할 수 있다. 또는, 본 개시의 엑스선 장치(100)는 딥 러닝 네트워크 모델을 이용하여 스캐터가 제거된 방사선 영상을 추정할 수 있다. 또는, 본 개시의 엑스선 장치(100)는 딥 러닝 네트워크 모델을 이용하여 스캐터가 제거되고 후처리 과정이 수행된 의료 영상을 직접 추정할 수 있다.
다양한 실시예에 따르면, 본 개시의 실시예 및 기존 실시예를 함께 이용하여 의료 영상의 추정이 가능할 수 있다. 예로, 신체 부위의 영역 별 또는 신체 부위의 두께 별로 서로 다른 스캐터 커널을 적용하여 스캐터가 제거된 방사선 영상을 획득할 수 있다. 그리고, 스캐터가 제거된 방사선 영상을 다시 본 개시의 학습 네트워크 모델로 입력하여 스캐터가 더 많이 제거된 방사선 영상을 획득할 수 있다.
*이하, 본 개시의 다양한 실시예에 따라 학습 네트워크 모델(예로, 딥 러닝 네트워크 모델)을 생성하고, 생성된 학습 네트워크 모델을 이용하여 방사선 영상을 획득하는 과정을 나타낸다.
도 5는, 본 개시의 일 실시예에 따라 학습 네트워크 모델(예로, 딥 러닝 네트워크 모델)을 적용하여 의료 영상을 획득하는 과정을 도식화한 도면이다.
도 5의 (a)는 학습 네트워크 모델을 생성하는 과정을 나타내고, 도 5의 (b)는 학습 네트워크 모델을 이용하여 방사선 영상을 획득하는 과정을 나타낸다.
먼저, 도 5의 (a)에서, 스캐터 방사선 영상을 포함한 학습 데이터들(510)을 기반으로, 학습 네트워크 모델을 학습시키는 모델링 과정(520)이 수행될 수 있다. 이 경우, 학습 데이터들(510)은, 예로, 스캐터 방사선 영상(511), 촬영 대상체의 부위 별 특징(512), 촬영 대상체의 두께(513) 및 촬영 조건 정보(514) 중 적어도 하나를 포함할 수 있다. 촬영 조건 정보(514)는, 예로, kVp, mAs, SID 및 필터(filter) 중 적어도 하나를 포함할 수 있다. 여기서, kVp, mAs는 각각 엑스선 조사부에 엑스선 발생을 위하여 인가하는 전압 및 전류량을 나타내고, SID는 엑스선 조사부의 튜브로부터 대상체까지의 거리를 나타내고, 필터는 엑스선이 조사되는 에너지 대역의 범위를 나타낼 수 있다.
또한, 학습 데이터들(510)은, 원본 방사선 영상을 포함할 수 있다.
모델링 과정(520)이 수행되면, 이에 대한 결과로서 스캐터 방사선을 추정하도록 설정된(configured) 학습 네트워크 모델(530)이 도출될 수 있다.
학습 네트워크 모델(530)이 도출되면, 도 5의 (b)에서, 엑스선 장치(100)는 입력 데이터들(540)을 스캐터 방사선을 추정하는 학습 네트워크 모델(530)에 적용하는 스캐터 방사선 영상 추정 과정(550)을 수행할 수 있다. 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선 영상(560)을 획득할 수 있다. 이 때, 입력 데이터들(540)은, 예로, 스캐터 방지 그리드가 적용되지 않은 상황에서 촬영된 원본 방사선 영상(541) 및 촬영 조건 정보(542)을 포함할 수 있다.
구체적으로, 엑스선 장치(100)는 입력 데이터들(540)에 네트워크 노드의 가중치를 적용한 결과를 각 네트워크 깊이(network depth)마다 합하여 스캐터 방사선 영상(560)을 획득 할 수 있다.
전술한, 엑스선 장치(100)가 스캐터 방사선 영상(560)을 획득하는 과정을 수학식으로 나타내면 아래와 같다.
Figure pat00002
[수학식 2]에서, SF 는 추정된 스캐터 방사선 영상(560)을 나타낸다.
w 는 스캐터 방사선을 추정하는 학습 네트워크 모델(530)을 구성하는 네트워크 노드들의 가중치를 나타내고, I input 은 입력 데이터들(540)을 나타낸다.
다음으로, 엑스선 장치(100)는 원본 방사선 영상(541)으로부터, 추정된 스캐터 방사선 영상(560)을 제거(또는, 보정(correction))하는 스캐터 처리 과정(570)을 수행할 수 있다.
스캐터 처리 과정(570)의 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선이 처리된(또는, 보상된(compensated)) 의료 영상(580)을 획득할 수 있다.
도 5의 (c)는, 전술한 과정의 적용 전 및 적용 후의 방사선 영상을 나타내는 도면이다.
도 5의 (c)에서, 엑스선 장치(100)는 스캐터 방지 그리드를 적용하지 않은 상황에서 촬영된 원본 방사선 영상(541)을 대상으로 스캐터 방사선 영상 추정 과정(550) 및 스캐터 처리 과정(570)을 수행할 수 있다. 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선이 처리된 의료 영상(580)을 획득할 수 있다. 이 경우, 스캐터 방사선이 처리된 의료 영상(580)은 스캐터 방지 그리드가 적용되어 스캐터 방사선이 제거된 원본 방사선 영상과 유사할 수 있다.
도 6은, 본 개시의 다른 일 실시예에 따라 학습 네트워크 모델을 적용하여 의료 영상을 획득하는 과정을 도식화한 도면이다.
먼저, 도 6의 (a)에서, 원본 방사선 영상을 포함한 학습 데이터들(610)을 기반으로, 학습 네트워크 모델을 학습시키는 모델링 과정(620)이 수행될 수 있다. 이 경우, 학습 데이터들(610)은, 예로, 원본 방사선 영상(611), 촬영 대상체의 부위 별 특징(612), 촬영 대상체의 두께(613) 및 촬영 조건 정보(614) 중 적어도 하나를 포함할 수 있다.
모델링 과정(620)이 수행되면, 이에 대한 결과로서 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된(configured) 학습 네트워크 모델(630)이 도출될 수 있다.
학습 네트워크 모델(630)이 도출되면, 도 6의 (b)에서, 엑스선 장치(100)는 의료 영상의 추정을 위하여, 입력 데이터들(640)을 스캐터 방사선을 추정하는 학습 네트워크 모델(630)에 적용하는 스캐터 방사선 영상 추정 과정(650)을 수행할 수 있다. 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선이 처리된(또는, 보상된(compensated)) 의료 영상(660)을 획득할 수 있다.
도 7은, 본 개시의 따른 일 실시예에 따라 학습 네트워크 모델을 적용하여 의료 영상을 획득하는 과정을 도식화한 도면이다.
도 7에서, 엑스선 장치(100)의 사용자는 의료 영상에 대하여 스캐터 방사선의 제거 정도를 설정하기를 원할 수 있다. 예를 들어, 사용자는 스캐터 방사선이 완벽하게 제거된 방사선 영상보다 어느 정도 스캐터 방사선이 포함된 자연스러운 방사선 영상을 원할 수도 있다.
이 경우, 엑스선 장치(100)는 사용자가 선택한 스캐터 방사선 영상의 제거 정도에 기반하여, 스캐터 방사선이 처리된 의료 영상을 제공할 수도 있다.
먼저, 도 7의 (a)에서, 스캐터 방사선 영상을 포함한 학습 데이터들(710)을 기반으로, 학습 네트워크 모델을 학습시키는 모델링 과정(720)이 수행될 수 있다. 이 경우, 학습 데이터들(710)은, 예로, 스캐터 방사선 영상(711), 촬영 대상체의 부위 별 특징(712), 촬영 대상체의 두께(713), 촬영 조건 정보(714), 스캐터 방사선의 세기(또는, 보상(compensation)) 정도(715) 중 적어도 하나를 포함할 수 있다. 또한, 학습 데이터들(710)은 원본 방사선 영상을 포함할 수도 있다.
이 때, 스캐터 방사선 영상의 제거 정도는, 스캐터 방지 그리드를 통과하여 획득된 원본 방사선 영상에 잔존하는 스캐터의 강도, 스캐터의 분포도, 스캐터 밀도 중 적어도 하나를 포함할 수 있다. 스캐터 방사선 영상(711)의 제거 정도에 대한 판단은, 사람에 의하여 수동으로 설정될 수도 있고, 영상 처리 기법에 따라 자동으로 설정될 수도 있다. 상기 제거 정도의 값은, 예로, 0 내지 100 사이의 값 중에서 결정될 수 있다.
모델링 과정(720)이 수행되면, 이에 대한 결과로서 스캐터 방사선 영상을 추정하도록 설정된 학습 네트워크 모델(730)이 도출될 수 있다.
학습 네트워크 모델(730)이 도출되면, 도 7의 (b)에서, 엑스선 장치(100)는 입력 데이터들(740)을 스캐터 방사선을 추정하는 학습 네트워크 모델(730)에 적용하는 스캐터 방사선 영상 추정 과정(750)을 수행할 수 있다. 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선 영상(760)을 획득할 수 있다. 이 때, 입력 데이터들(740)은, 예로, 원본 방사선 영상(741) 및 촬영 조건 정보(742)을 포함할 수 있다.
한편, 스캐터 방사선 영상 추정 과정(750)에서, 스캐터 방사선의 제거 정도를 설정하는 과정(751)이 더 포함될 수 있다. 이 경우, 엑스선 장치(100)는 설정된 스캐터 방사선의 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 스캐터 방사선 영상을 획득할 수 있다. 스캐터 방사선의 제거 정도를 설정하는 과정(751)은 도 8에서 후술될 예정으로 자세한 설명은 생략한다.
다음으로, 엑스선 장치(100)는 원본 방사선 영상(741)으로부터, 추정된 스캐터 방사선 영상(760)을 제거하는 스캐터 처리 과정(770)을 수행할 수 있다.
스캐터 처리 과정(770)의 수행 결과로서, 엑스선 장치(100)는 기 설정된 스캐터 방사선의 제거 정도에 기반하여, 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 의료 영상(780)을 획득할 수 있다.
도 7의 (c)는, 기 설정된 스캐터 방사선의 제거 정도에 따라, 스캐터 방사선이 처리된 의료 영상들을 나타내는 도면이다.
도 7의 (c)에서, 엑스선 장치(100)는 원본 방사선 영상(741)을 대상으로 스캐터 영상 방사선 영상 추정 과정(750) 및 스캐터 처리 과정(570)을 수행할 수 있다. 이 경우, 기 설정된 스캐터 방사선의 제거 정도에 따라, 엑스선 장치(100)는 설정된 스캐터 방사선의 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 의료 영상을 획득할 수 있다. 이 경우, 의료 영상들은, 스캐터 방지 그리드를 적용 결과로 획득된 의료 영상에 품질에 대응될 수 있다.
예로, 제거 정도의 값으로 제1 가중치를 설정하는 상황에서는, '85Lp/cm 및 6:1 Ratio'를 갖는 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상(781)이 획득될 수 있다. 또한, 제2 가중치를 설정하는 상황에서는 '85Lp/cm 및 10:1 Ratio'를 갖는 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상(782), 제3 가중치를 설정하는 상황에서는 '85Lp/cm 및 16:1 Ratio'를 갖는 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상(783)이 각각 획득될 수 있다. 여기서, 'LP/cm'는 1cm 안에 포함된 한 쌍의 그리드 라인들의 개수를 의미할 수 있다. 또한, 비율은 스캐터 방지 그리드의 두께를 의미할 수 있다. 이 경우, 'LP/cm'값이 높을수록 방사선 영상의 선명도가 상승하고, 스캐터 방지 그리드의 두께가 클수록 스캐터 방사선의 차단률이 상승할 수 있다.
이 경우, 전술한 스캐터 방지 그리드의 스펙은 일 예일 뿐이고, 기 설정된 스캐터 방사선의 제거 정도에 따라 다양한 스펙의 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상이 획득될 수 있다.
도 8은, 본 개시의 일 실시예에 따라, 스캐터 방사선의 제거 정도를 설정하는 UI를 나타내는 도면이다.
스캐터 방사선의 제거 정도를 설정하는 UI는, 예로, 워크스테이션(180)의 입력부(181) 또는 디스플레이부(182)를 통하여 제공될 수도 있고, 또는 모바일 엑스선 장치(100)의 입력부(151) 또는 디스플레이부(152)를 통하여 제공될 수도 있다.
먼저, 도 8의 (a)와 같이, 엑스선 장치(100)는 사용자가 스캐터 방사선의 제거 정도를 설정할 수 있도록 스크롤 바 UI를 제공할 수 있다. 이 경우, 사용자가 설정 가능한 스캐터 방사선의 제거 정도는, 도 8의 (a)의 811과 같이, 레벨의 숫자로 제공되거나, 도 8의 (a)의 812와 같이, 제거 정도의 높고/낮음으로 제공되거나, 도 8의 (a)의 813과 같이, 스캐터 방지 그리드의 스펙의 일 예인, 두께의 비율로 제공될 수 있다.
또는, 도 8의 (b)와 같이, 엑스선 장치(100)는 사용자가 스캐터 방사선의 제거 정도를 설정할 수 있도록 버튼 UI를 제공할 수도 있다. 이 경우, 사용자가 설정 가능한 스캐터 방사선의 제거 정도는, 도 8의 (b)의 821과 같이, 레벨의 숫자로 제공되거나, 도 8의 (b)의 823과 같이, 스캐터 방지 그리드의 두께의 비율로 제공될 수 있다.
또는, 도 8의 (c)와 같이, 엑스선 장치(100)는 사용자의 선택이 용이하도록 썸네일 정보를 포함하는 버튼 UI를 제공할 수도 있다. 이 경우, 썸네일 정보를 포함하는 버튼 UI들은, 스캐터 방사선의 제거 정도가 각각 다른 샘플 의료 영상들에 대응될 수 있다.
또는, 도 8의 (d)와 같이, 엑스선 장치(100)는 스캐터 방사선의 제거 정도를 설정하는 UI를 단계적으로 제공할 수 있다. 먼저, 도 8의 (d)에서,, 스캐터 방사선의 제거 정도를 설정하기 위한 UI(841)가 선택되면, 엑스선 장치(100)는 단계적으로, 스캐터 방사선의 세기 정도가 각각 다른 샘플 의료 영상들에 대응하는 복수의 버튼 UI들을 제공할 수 있다.
도 8에서, 일 예로, 레벨의 숫자가 크고, 제거 정도가 높고, 그리드가 두께가 두꺼울수록 의료 영상에 나타나는 스캐터 방사선의 세기는 약할 수 있다. 즉, 스캐터 방사선의 제거가 많이 되어 선명한 의료 영상이 제공될 수 있다. 반면에서, 레벨의 숫자가 낮고, 제거 정도가 낮고, 그리드의 두께가 얇을수록 의료 영상에 나타나는 스캐터 방사선의 세기는 강할 수 있다. 즉, 스캐터 방사선의 제거가 적게 되어, 원본 의료 영상에 가까운 자연스러운 의료 영상이 제공될 수 있다.
도 8에서 제공된 UI들 중 적어도 하나를 이용하여 사용자가 스캐터 방사선의 제거 정도를 설정하면, 엑스선 장치(100)는 설정된 스캐터 방사선의 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 의료 영상을 획득할 수 있다.
도 9는, 본 개시의 따른 일 실시예에 따라, 학습 네트워크 모델을 적용하여 의료 영상을 획득하는 과정을 도식화한 도면이다.
도 9에서, 엑스선 장치(100)는 전술한 도 7 및 도 8과 달리 사용자의 입력 없이도 자동으로 적절한 스캐터 방사선 강도를 갖는 의료 영상을 제공할 수도 있다.
먼저, 도 9의 (a)에서, 스캐터 방사선 영상을 포함한 학습 데이터들(910)을 기반으로, 학습 네트워크 모델을 학습시키는 모델링 과정(920)이 수행될 수 있다. 이 경우, 학습 데이터들(910)은, 예로, 스캐터 방사선 영상(911), 촬영 대상체의 부위 별 특징(912), 촬영 대상체의 두께(913), 촬영 조건 정보(914), 스캐터 방사선의 세기(또는, 보상(compensation)) 정도(915) 중 적어도 하나를 포함할 수 있다. 또한, 학습 데이터들(910)은 원본 방사선 영상을 포함할 수도 있다.
이 경우, 도 9의 (a-1)과 같이, 스캐터 방사선 영상(911)들 및 각 스캐터 방사선 영상(911)들의 스캐터 방사선의 세기 정도(915)들이 학습 데이터들(910)의 일부로서 제공될 수 있다. 또는, 학습 데이터들(910)에 원본 방사선 영상이 포함되는 경우, 원본 방사선 영상들 및 상기 원본 방사선 영상들 각각에 포함된 스캐터 방사선의 세기 정도가 학습 데이터들(910)의 일부로서 제공될 수도 있다. 또는, 학습 데이터들(910)에 원본 방사선 영상이 포함되는 경우, 원본 방사선 영상들 및 상기 원본 방사선 영상들로부터 스캐터 방사선이 처리된 의료 영상들 각각에 포함된 스캐터 방사선의 세기 정도가 학습 데이터들(910)의 일부로서 제공될 수도 있다.
모델링 과정(920)이 수행되면, 이에 대한 결과로서, 스캐터 방사선 영상을 추정하도록 설정된 학습 네트워크 모델(930)이 도출될 수 있다.
학습 네트워크 모델(930)이 도출되면, 도 9의 (b)에서, 엑스선 장치(100)는 입력 데이터들(940)을 스캐터 방사선을 추정하는 학습 네트워크 모델(930)에 적용하는 스캐터 방사선 영상 추정 과정(950)을 수행할 수 있다. 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선 영상(960)을 획득할 수 있다. 이 때, 입력 데이터들(940)은, 예로, 원본 방사선 영상(941) 및 촬영 조건 정보(942)을 포함할 수 있다.
한편, 스캐터 방사선 영상 추정 과정(950)에서, 스캐터 방사선의 제거 정도를 자동으로 설정하는 과정(951)이 더 포함될 수 있다. 즉, 모델링 과정(920)에서 원본 방사선 영상에 대응하는 스캐터 방사선의 세기 정도가 학습된 학습 네트워크 모델(930)을 이용하여, 엑스선 장치(100)은 입력된 원본 방사선 영상에 포함된 스캐터 방사선의 세기 정도를 고려하여, 적절한 스캐터 방사선 강도를 갖는 스캐터 방사선 영상(960)을 획득할 수 있다.
다음으로, 엑스선 장치(100)는 원본 방사선 영상(941)으로부터, 추정된 스캐터 방사선 영상(960)을 제거하는 스캐터 처리 과정(970)을 수행할 수 있다.
스캐터 처리 과정(970)의 수행 결과로서, 엑스선 장치(100)는 사용자가 만족할 수준의 적절한 스캐터 방사선 강도를 갖는 의료 영상(980)을 획득할 수 있다.
도 9의 (c)는, 기 설정된 스캐터 방사선의 제거 정도에 따라, 스캐터 방사선이 처리된 의료 영상들을 나타내는 도면이다.
도 9의 (c)에서, 엑스선 장치(100)는 원본 방사선 영상(941)을 대상으로 스캐터 영상 방사선 영상 추정 과정(950) 및 스캐터 처리 과정(970)을 수행할 수 있다. 이 경우, 엑스선 장치(100)는 스캐터 방사선의 제거 정도를 자동으로 설정하는 과정(951)을 수행하여, 적절한 스캐터 방사선 강도를 갖는 의료 영상을 자동으로 획득할 수 있다.
예로, 제거 정도의 값이 제1 가중치로 자동 설정되는 상황에서는, '85Lp/cm 및 6:1 Ratio'를 갖는 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상(981)이 획득될 수 있고, 제2 가중치로 자동 설정되는 상황에서는 '85Lp/cm 및 10:1 Ratio'를 갖는 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상(982)이 획득될 수 있고, 제3 가중치로 자동 설정되는 상황에서는 '85Lp/cm 및 16:1 Ratio'를 갖는 스캐터 방지 그리드와 동일 또는 유사한 효과의 의료 영상(983)이 각각 획득될 수 있다
도 10은, 본 개시의 따른 일 실시예에 따라 학습 네트워크 모델을 적용하여 의료 영상을 획득하는 과정을 도식화한 도면이다.
도 10에서, 엑스선 장치(100)는 스캐터 방지 그리드를 통과하고 남은 잔여 스캐터의 추가 필터링을 위하여 학습 네트워크 모델을 이용할 수 있다. 예로, 비만의 환자를 대상으로 엑스선을 조사하는 경우에는, 스캐터 방지 그리드를 이용함에도 불구하고 스캐터 방사선이 상당하게 나타나는 상황이 발생될 수 있다. 이 경우, 학습 네트워크 모델을 이용하여 잔여 스캐터 방서선을 제거할 필요성이 요구될 수 있다.
먼저, 도 10의 (a)에서, 스캐터 방사선 영상을 포함한 학습 데이터들(1010)을 기반으로, 학습 네트워크 모델을 학습시키는 모델링 과정(1020)이 수행될 수 있다. 이 경우, 학습 데이터들(1010)은, 예로, 스캐터 방사선 영상(1011), 촬영 대상체의 부위 별 특징(1012), 촬영 대상체의 두께(1013), 촬영 조건 정보(1014), 스캐터 방사선의 세기(또는, 보상(compensation), 필터링) 정도(1015) 중 적어도 하나를 포함할 수 있다. 이 경우, 스캐터 방사선 영상(1011)은 스캐터 방지 그리드를 적용한 상태에서 촬영된 방사선 영상일 수 있다.
또한, 학습 데이터들(1010)은 원본 방사선 영상을 포함할 수도 있다. 이 경우, 원본 방사선 영상은, 스캐터 방지 그리드를 적용한 상태에서 촬영된 방사선 영상일 수 있다.
모델링 과정(1020)이 수행되면, 이에 대한 결과로서 스캐터 방사선 영상을 추정하도록 설정된 학습 네트워크 모델(1030)이 도출될 수 있다.
학습 네트워크 모델(1030)이 도출되면, 도 10의 (b)에서, 엑스선 장치(100)는 입력 데이터들(1040)을 스캐터 방사선을 추정하는 학습 네트워크 모델(1030)에 적용하는 스캐터 방사선 영상 추정 과정(1050)을 수행할 수 있다. 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선 영상(1060)을 획득할 수 있다. 이 때, 입력 데이터들(1040)은, 예로, 스캐터 방지 그리드를 적용한 상태에서 촬영된 원본 방사선 영상(1041) 및 촬영 조건 정보(1042)을 포함할 수 있다.
한편, 스캐터 방사선 영상 추정 과정(1050)에서, 스캐터 방사선의 제거 정도를 설정하는 과정(미도시)이 더 포함될 수 있다. 이 경우, 엑스선 장치(100)는 스캐터 방사선의 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 스캐터 방사선 영상을 획득할 수 있다. 스캐터 방사선의 제거 정도를 설정하는 과정은, 도 7과 같이, UI를 통한 사용자 입력을 통하여 수행될 수도 있고, 도 9와 같이, 사용자의 입력이 없이도 자동으로 설정될 수도 있다.
다음으로, 엑스선 장치(100)는 원본 방사선 영상(1041)으로부터, 추정된 스캐터 방사선 영상(1060)을 제거하는 스캐터 처리 과정(1070)을 수행할 수 있다. 이 경우, 원본 방사선 영상(1041)은 스캐터 방지 그리드가 적용한 상태에서 촬영된 방사선 영상일 수 있다.
스캐터 처리 과정(1070)의 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선이 처리된 의료 영상(1080)을 획득할 수 있다.
도 10의 (c)는, 전술한 과정의 적용 전 및 적용 후의 방사선 영상을 나타내는 도면이다.
도 10의 (c)에서, 엑스선 장치(100)는 스캐터 방지 그리드를 적용한 상황에서 촬영된 원본 방사선 영상(1041)을 대상으로 스캐터 방사선 영상 추정 과정(1050) 및 스캐터 처리 과정(1070)을 수행할 수 있다. 이 경우, 원본 방사선 영상(1041)은 일 예로, 85 Lp/cm 및 10:1 비율(Ratio)를 가지는 스캐터 방지 그리드가 적용된 상황에서 촬영된 방사선 영상일 수 있다. 스캐터 방사선 영상 추정 과정(1050) 및 스캐터 처리 과정(1070)을 수행 결과로서, 엑스선 장치(100)는 스캐터 방사선이 처리된 의료 영상(1080)을 획득할 수 있다. 이 경우, 상기 의료 영상(1080)은 스캐터 그리드를 적용한 원본 방사선 영상(1041) 보다 스캐터 방사선의 제거가 추가적으로 수행된 선명한 의료 영상(1080)일 수 있다.
도 11은, 본 개시의 실시예에 따른 스캐터 방사선 처리 효과를 나타내는 도면이다.
도 11의 (a)는, 스캐터 방지 그리드를 적용하지 않은 상황에서 촬영된 원본 방사선 영상을 나타내는 도면이다. 도 11의 (a)에서, 원본 방사선 영상에서는 다량의 스캐터 방사선이 포함되어 낮은 품질을 나타내는 것이 확인될 수 있다.
도 11의 (b)는 스캐터 방지 그리드를 적용한 상황에서 촬영된 원본 방사선 영상을 나타내는 도면이다. 도 11의 (b)를 참조하면, 스캐터 방지 그리드를 통하여 스캐터 방사선이 필터링됨에 따라, 도 11의 (a) 보다 높은 품질의 원본 방사선 영상이 획득되는 것이 확인될 수 있다.
도 11의 (c)는, 스캐터 방지 그리드를 적용하지 않은 상황에서, 본 개시의 실시예에 따른 스캐터 방사선 영상 추정 과정 및 스캐터 처리 과정을 통하여 획득된 방사선 영상을 나타내는 도면이다. 도 11의 (c)에서, 본 개시의 실시예를 적용한 방사선 영상은 품질은 물리적인 스캐터 방지 그리드를 적용한 방사선 영상 보다 동등 또는 그 이상의 품질을 가질 수 있다.
전술한 본 개시의 실시예들을 정리하면, 스캐터 방지 그리드를 적용하지 않은 상황에서, 학습 네트워크 모델을 이용하여 원본 방사선 영상으로부터 스캐터 영상을 추정하거나, 또는 스캐터 방사선이 처리된 의료 영상을 직접 추정할 수 있다.
또는, 스캐터 방지 그리드가 적용된 상황에서 의료 영상의 품질을 보다 향상시키기 위하여, 학습 네트워크 모델을 이용하여 원본 방사선 영상으로부터 스캐터 영상을 추정하거나, 스캐터 방사선이 처리된 의료 영상을 직접 추정할 수 있다.
또는, 스캐터 방지 그리드가 적용되었거나 또는 적용되지 않은 상황에서, 스캐터 방사선의 제거 정도의 설정을 고려한 학습 네트워크 모델을 이용하여 원본 방사선 영상으로부터 스캐터 영상을 추정하거나, 또는 스캐터 방사선이 처리된 의료 영상을 직접 추정할 수 있다.
이 경우, 스캐터 방사선의 제거 정도를 설정하는 과정은, UI를 통한 사용자 입력을 통하여 수행될 수도 있고, 사용자의 입력 없이도 자동으로 스캐터 방사선의 제거 정도가 설정될 수도 있다.
다양한 실시예에 따르면, 다수의 의료 영상을 연결 또는 합치는 스티칭(stitching) 기법에도 본 개시의 실시예들이 이용될 수 있다.
예를 들면, 엑스선 장치(100)는 다수의 원본 방사선 영상을 학습 네트워크 모델로 입력하여 다수의 스캐터 방사선 영상들을 획득할 수 있다. 그리고, 획득된 다수의 스캐터 방사선 영상들에 기반하여, 스캐터 방사선이 처리된 다수의 의료 영상들을 획득할 수 있다. 엑스선 장치(100)는 획득된 다수의 의료 영상들을 스티칭하여 대상체에 대한 전체 의료 영상을 획득할 수 있다. 이 경우, 학습 네트워크 모델을 적용하는 과정 또는 스티칭하는 과정에서 다수의 의료 영상들 각각의 촬영 각도 등이 함께 고려될 수도 있다.
다양한 실시예에 따르면, 스캐터 방사선으로 인한 노이즈(noise)의 변화 또한 학습 네트워크 모델을 학습시키기 위한 학습 데이터로서 이용될 수 있다. 이 경우, 스캐터 방사선의 노이즈를 고려하여, 스캐터 방사선 영상 또는 의료 영상의 추정이 가능하게 된다.
도 12는, 본 개시의 일 실시예에 따른 엑스선 장치가 학습 네트워크 모델을 이용하여 뼈 구조가 제거된 의료 영상을 획득하는 과정을 나타내는 도면이다.
엑스선 장치(100)는 대상체의 신체 부위(예로, 사람의 흉부)를 엑스선 촬영할 수 있다. 이 경우, 흉부 내의 뼈에 의하여 병변의 시인성이 떨어지고, 이로 인하여 정확한 병변을 검출하는데 어려움이 있을 수 있다. 이에 따라, 대상체의 신체 부위에서 뼈를 추정하고, 원본 방사선 영상에서 추정된 뼈를 제거하는 과정이 요구될 수 있다.
본 개시는, 학습 네트워크 모델을 이용하여 원본 방사선 영상에서 뼈를 제거하는 과정을 나타낸다.
도 12에서, 엑스선 장치(100)는 신체 부위(예로, 흉부)를 대상으로 엑스선을 조사하여 원본 방사선 영상(1201)을 획득할 수 있다. 이 경우, 원본 방사선 영상(1201)은, 전술한 실시예에 따라, 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델을 이용하여 획득된 의료 영상일 수 있다.
엑스선 장치(100)는 원본 방사선 영상(1201)으로로부터 뼈를 추정하도록 설정된 학습 네트워크 모델(1211)을 이용하여 뼈 추정 과정(1211)을 수행할 수 있다. 학습 네트워크 모델(1211)은, 예로, 인공 지능 신경망 모델 또는 딥 러닝 네트워크 모델을 포함할 수 있다.
엑스선 장치(100)는 원본 방사선 영상(1201)을 학습 네트워크 모델(1211)에 적용한 결과로서, 뼈 구조(bone structure) 방사선 영상(1202)을 획득할 수 있다. 뼈 구조는, 예로, 늑골뼈(rib), 쇄골뼈(clavicle) 등을 포함할 수 있다.
뼈 구조 방사선 영상(1202)이 획득되면, 엑스선 장치(100)는 원본 방사선 영상(1201) 및 뼈 구조 방사선 영상(1202)을 입력으로 뼈 처리 과정(1213)을 수행하여 뼈 구조가 처리된 의료 영상(1203)을 획득할 수 있다. 여기서, 뼈 구조가 처리된다는 것은, 원본 방사선 영상(1201)에서 뼈 구조의 적어도 일부가 제거되거나, 뼈 구조의 적어도 일부의 세기가 옅어지거나 또는 뼈 구조의 적어도 일부가 필터링되거나, 뼈 구조의 적어도 일부가 억제(suppression)되는 것을 포함할 수 있다.
이와 같이, 원본 방사선 영상(1201)에서 뼈 구조가 제거된 의료 영상(1203)이 획득됨에 따라, 병변 및 연조직(soft tissue)의 시인성이 향상될 수 있다.
특히, 일반적인 흉부의 방사선 영상에는 결절(nodule)이 정확하게 구분되지 않는 상황이 발생될 수 있다. 이 경우, 본 개시의 실시예에 따른 뼈 처리 과정을 수행하면, 뼈에 가려진 병변이 선명하게 표시되어 정확한 병변 검출이 가능할 수 있다.
또한, 기존의 뼈 처리 알고리즘은 다수의 의료 영상으로부터 뼈 처리 과정을 수행하였으나, 본 개시의 실시예에 따르면, 한 장의 방사선 영상을 입력으로 사용하기 때문에, 대상체를 대상으로 방사선 피폭량(radiation dose)은 현저히 줄어들고, 심장 환자들에게 주로 발생될 수 있는 움직임에 의한 영상의 노이즈(artifact)가 최소화될 수 있다.
도 13a 및 도 13b는, 본 개시의 일 실시예에 따른 엑스선 장치가 학습 네트워크 모델을 이용하여 뼈 구조가 제거된 의료 영상을 획득하는 과정을 나타내는 도면이다.
먼저, 도 13a의 (a)에서, 대상체의 신체 부위(예로, 사람의 흉부)의 방사선 영상이 획득되면, 엑스선 장치(100)는 이를 입력으로 뼈 처리 과정(1320)을 수행할 수 있다. 이 경우, 엑스선 장치(100)는 뼈 처리 과정 이전에 전처리 과정(1310)을 먼저 수행할 수도 있다. 전처리 과정은, 예로, 전술한 학습 네트워크 모델을 이용하여 원본 방사선 영상으로터 스캐터 방사선을 처리하는 과정을 포함할 수 있다. 또는, 전처리 과정은 획득된 방사선 영상의 노이즈를 제거하거나 콘트라스트를 조절하는 과정 등을 포함할 수 있다.
다음으로, 엑스선 장치(100)는 뼈 처리 과정(1320)의 일부로서, 촬영된 방사선 영상에 포함된 흉부의 상단(apex)이 위를 향하여 위치하도록 방사선 영상을 회전 시키는 회전 과정(1321)을 수행할 수 있다. 예로, 도 13a의 (b)를 참조하면, 좌측의 방사선 영상들(1321-1~1321-4)은 전처리 과정(1310)을 통하여 우측의 방사선 영상(1321-5)과 같이 흉부의 상단이 위를 향하도록 회전될 수 있다.
다음으로, 엑스선 장치(100)는 회전 과정(1321)이 수행된 방사선 영상으로부터 폐와 관련된 영역이 추출되도록 마스크 영상을 생성하는 폐 분할 과정(1322)를 수행할 수 있다. 예로, 도 13a의 (c)를 참조하면, 엑스선 장치(100)는 폐 분할 과정(1322)을 통하여 좌측의 원본 방사선 영상(1321-5)으로부터 우측의 마스크 영상(1322-2)을 생성할 수 있다. 이 경우, 원본 방사선 영상(1321-5)로부터 마스크 영상(1322-2)을 생성하는 과정은 학습 네트워크 모델을 이용하여 수행될 수도 있다.
또한, 엑스선 장치(100)는 회전 과정(1321)이 수행된 방사선 영상으로부터 뼈 구조를 추출하는 BPM(bone probability map) 생성 과정(1323)를 수행할 수 있다. 이 경우, BPM 생성 과정(1323)은 도 12에서 전술한, 학습 네트워크 모델을 이용하여 수행될 수 있다.
예로, 도 13b의 (b)를 참조하면, 엑스선 장치(100)는 BPM 생성 과정(1323)을 통하여 좌측의 원본 방사선 영상(1321-5)로부터 우측의 뼈 구조 방사선 영상(1323-2)를 생성할 수 있다.
다음으로, 엑스선 장치(100)는 회전 과정(1321)이 수행된 원본 방사선 영상(1321-5), BMP 생성 과정(1323)을 통하여 생성된 뼈 구조 방사선 영상(1323-2) 및 폐 분할 과정(1322)을 통하여 생성된 마스크 영상(1322-2)를 이용하여 뼈 구조가 제거된 방사선 영상을 획득하는 뼈 처리 과정(1324)을 수행할 수 있다. 도 13b의 (c)를 참조하면, 엑스선 장치(100)는 뼈 처리 과정(1324)를 통하여 우측의 원본 방사선 영상(1321-5)으로부터 뼈 구조가 제거된 좌측의 방사선 영상(1324-2)을 생성할 수 있다.
다음으로, 엑스선 장치(100)는 폐 분할 과정(1322)을 통하여 생성된 마스크 영상(1322-2) 및 뼈 처리 과정(1324)을 통하여 생성된 뼈 구조가 제거된 방사선 영상(1324-2)을 이용하여 연조직(soft tissue)의 품질을 향상시키는 연조직 향상 과정(1325)를 수행할 수 있다.
엑스선 장치(100)는 연조직 향상 과정(1325)의 수행 결과로서, 연조직의 해상도 및 콘트라스트(contrast)가 향상된 뼈 구조가 제거된 최종 의료 영상(1302)를 획득할 수 있다.
도 14는, 본 개시의 일 실시예에 따른 엑스선 장치가 의료 영상 획득 방법을 나타내는 흐름도이다.
먼저, 동작 1401에서, 외부의 서버(310) 또는 엑스선 장치(100)는 복수 개의 스캐터 방사선 영상들 및 복수 개의 스캐터 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델을 생성할 수 있다. 이 경우, 외부의 서버(310) 또는 엑스선 장치(100)는 촬영 대상체의 부위 별 특징 및 촬영 대상체의 두께 중 적어도 하나를 학습 데이터로 더 이용하여 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델을 생성할 수 있다.
다음으로, 동작 1403에서, 대상체를 엑스선 촬영하는 경우, 엑스선 장치(100)는 촬영 대상체에 대한 원본 방사선 영상 및 대상체의 촬영 조건 정보를 획득할 수 있다.
그리고, 동작 1405에서, 엑스선 장치(100)는 원본 방사선 영상 및 촬영 조건 정보를, 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델로 입력하여, 학습 네트워크 모델을 구성하는 복수의 네트워크 노드들 간의 연결 관계 및 복수의 네트워크 노드들 각각의 가중치에 기반한 연산에 따라 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득할 수 있다. 이 경우, 원본 방사선 영상은 스캐터 방지 그리드가 적용되지 않은 상황에서 촬영된 대상체에 대한 원본 방사선 영상일 수 있다. 또한, 촬영 조건 정보는, 원본 방사선 영상의 촬영 시, 엑스선의 발생을 위하여 인가되는 전압, 엑스선의 발생을 위하여 인가되는 전류 및 엑스선 조사부로부터 대상체까지의 거리, 엑스선이 조사되는 에너지 대역 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 엑스선 장치(100)는 스캐터 방사선의 제거 정도를 설정하는 사용자 입력을 수신할 수 있다. 이 경우, 엑스선 장치(100)는 사용자 입력에 따라 설정된 스캐터 방사선의 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 스캐터 방사선 영상을 획득할 수 있다.
다양한 실시예에 따르면, 스캐터 방사선을 추정하도록 설정된 학습 네트워크 모델이 외부의 서버(310)의 메모리에 저장된 경우, 엑스선 장치(100)는 획득된 원본 방사선 영상 및 대상체의 촬영 조건 정보를 외부의 서버(310)로 전송할 수 있다. 외부의 서버(310)는 수신된 원본 방사선 영상 및 촬영 조건 정보를 저장된 상기 학습 네트워크 모델로 입력하여, 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득할 수 있다. 그리고, 외부의 서버(310)는 획득된 스캐터 방사선 영상을 엑스선 장치(100)로 전송할 수 있다. 엑스선 장치(100)는 통신부를 통하여 외부의 서버(310)로부터 전송된 스캐터 방사선 영상을 획득할 수 있다.
다음으로, 동작 1407에서, 엑스선 장치(100)는 원본 방사선 영상 및 획득된 스캐터 방사선 영상에 기반하여, 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득할 수 있다. 이 경우, 스캐터 방사선이 처리된 의료 영상은, 원본 방사선 영상에서 스캐터 방사선이 제거된 방사선 영상일 수 있다.
도 15는, 본 개시의 일 실시예에 따른 엑스선 장치가 의료 영상 획득 방법을 나타내는 흐름도이다.
먼저, 동작 1501에서, 외부의 서버(310) 또는 엑스선 장치(100)는 복수 개의 원본 방사선 영상들 및 복수 개의 원본 방사선 영상들 각각과 관련된 복수의 촬영 조건 정보들을 이용하여 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델을 생성할 수 있다. 이 경우, 외부의 서버(310) 또는 엑스선 장치(100)는 촬영 대상체의 부위 별 특징 및 촬영 대상체의 두께 중 적어도 하나를 학습 데이터로 더 이용하여 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델을 생성할 수 있다.
다음으로, 동작 1503에서, 대상체를 엑스선 촬영하는 경우, 엑스선 장치(100)는 촬영 대상체에 대한 원본 방사선 영상 및 대상체의 촬영 조건 정보를 획득할 수 있다.
그리고, 동작 1505에서, 엑스선 장치(100)는 원본 방사선 영상 및 촬영 조건 정보를, 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델로 입력하여, 학습 네트워크 모델을 구성하는 복수의 네트워크 노드들 간의 연결 관계 및 복수의 네트워크 노드들 각각의 가중치에 기반한 연산에 따라 원본 방사선 영상과 관련된 스캐터 방사선 영상을 획득할 수 있다. 이 경우, 원본 방사선 영상은 스캐터 방지 그리드가 적용되지 않은 상황에서 촬영된 대상체에 대한 원본 방사선 영상일 수 있다
다양한 실시예에 따르면, 엑스선 장치(100)는 스캐터 방사선의 제거 정도를 설정하는 사용자 입력을 수신할 수 있다. 이 경우, 엑스선 장치(100)는 사용자 입력에 따라 설정된 스캐터 방사선의 제거 정도에 대응하는 스캐터 방사선 강도를 갖는 스캐터 방사선 영상을 획득할 수 있다.
다양한 실시예에 따르면, 스캐터 방사선이 처리된 의료 영상을 추정하도록 설정된 학습 네트워크 모델이 외부의 서버(310)의 메모리에 저장된 경우, 엑스선 장치(100)는 획득된 원본 방사선 영상 및 대상체의 촬영 조건 정보를 외부의 서버(310)로 전송할 수 있다. 외부의 서버(310)는 수신된 원본 방사선 영상 및 촬영 조건 정보를 저장된 상기 학습 네트워크 모델로 입력하여, 원본 방사선 영상에서 스캐터 방사선이 처리된 의료 영상을 획득할 수 있다. 그리고, 외부의 서버(310)는 획득된 의료 영상을 엑스선 장치(100)로 전송할 수 있다. 엑스선 장치(100)는 통신부를 통하여 외부의 서버(310)로부터 전송된 의료 영상을 획득할 수 있다. 이 경우, 스캐터 방사선이 처리된 의료 영상은, 원본 방사선 영상에서 스캐터 방사선이 제거된 방사선 영상일 수 있다.
개시된 실시예들은 컴퓨터로 읽을 수 있는 저장 매체(computer-readable storage media)에 저장된 명령어를 포함하는 S/W 프로그램으로 구현될 수 있다.
컴퓨터는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 개시된 실시예에 따른 동작이 가능한 장치로서, 개시된 실시예들에 따른 엑스선 장치 또는 엑스선 장치와 통신 연결된 외부의 서버를 포함할 수 있다.
컴퓨터로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
또한, 개시된 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)으로 제공될 수 있다.
컴퓨터 프로그램 제품은 S/W 프로그램, S/W 프로그램이 저장된 컴퓨터로 읽을 수 있는 저장 매체 또는 판매자 및 구매자 간에 거래되는 상품을 포함할 수 있다.
예를 들어, 컴퓨터 프로그램 제품은 엑스선 장치의 제조사 또는 전자 마켓(예, 구글 플레이 스토어, 앱 스토어)을 통해 전자적으로 배포되는 S/W 프로그램 형태의 상품(예, 다운로더블 앱)을 포함할 수 있다. 전자적 배포를 위하여, S/W 프로그램의 적어도 일부는 저장 매체에 저장되거나, 임시적으로 생성될 수 있다. 이 경우, 저장 매체는 제조사 또는 전자 마켓의 서버, 또는 중계 서버의 저장매체가 될 수 있다.
100: 엑스선 장치 110: 엑스선 조사부
120: 제어부 140: 통신부
150: 메모리 160: 학습 네트워크 모델

Claims (16)

  1. 대상체를 촬영하기 위하여 엑스선을 조사하는 엑스선 조사부;
    상기 엑스선 조사부로부터 조사되어 상기 대상체를 투과한 엑스선을 검출하는 엑스선 디텍터;
    상기 엑스선 조사부와 상기 엑스선 디텍터를 제어하는 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 전기적으로 연결된 메모리;를 포함하고,
    상기 메모리는,
    상기 적어도 하나의 프로세서에 의해 실행될 때, 상기 적어도 하나의 프로세서가,
    상기 엑스선 디텍터로부터 획득된 상기 대상체에 대한 원본 방사선 영상을 획득하고,
    상기 원본 방사선 영상을, 복수의 방사선 영상들로부터 대응되는 뼈 구조 방사선 영상을 추정하도록 학습된 학습 네트워크 모델(learning network model)에 입력하여, 상기 대상체에 포함된 뼈 구조의 뼈 구조 방사선 영상을 획득하고,
    상기 뼈 구조 방사선 영상을 이용하여 상기 원본 방사선 영상으로부터 상기 대상체에 포함된 뼈 구조의 적어도 일부가 억제(suppression)된 의료 영상을 획득하도록 동작시키는 명령어들을 저장하는 엑스선 장치.
  2. 제1항에 있어서,
    상기 학습 네트워크 모델은 인공 지능 신경망 모델 또는 딥 러닝 네트워크 모델 중 적어도 하나를 포함하고,
    상기 인공 지능 신경망 모델 또는 딥 러닝 네트워크 모델 중 적어도 하나는,
    외부 장치를 통해 획득된 상기 복수의 방사선 영상들을 이용하여 학습된, 엑스선 장치.
  3. 제1항에 있어서,
    상기 명령어들은, 상기 적어도 하나의 프로세서로 하여금, 상기 원본 방사선 영상을 미리 설정된 방향으로 회전시키는 뼈 처리 과정을 수행하도록 하는 엑스선 장치.
  4. 제3항에 있어서,
    상기 명령어들은, 상기 적어도 하나의 프로세서로 하여금, 상기 학습 네트워크 모델을 이용하여 상기 회전된 원본 방사선 영상으로부터 상기 대상체에 포함된 뼈 구조를 추출하여 뼈 확률 맵(bone probability map; BPM)을 생성하도록 하는 엑스선 장치.
  5. 제4항에 있어서,
    상기 명령어들은, 상기 적어도 하나의 프로세서로 하여금, 상기 뼈 확률 맵 및 상기 원본 방사선 영상에 기초하여 상기 원본 방사선 영상으로부터 상기 대상체에 포함된 뼈 구조의 적어도 일부가 억제(suppression)된 억제 방사선 영상을 획득하도록 하는 엑스선 장치.
  6. 제5항에 있어서,
    상기 명령어들은, 상기 적어도 하나의 프로세서로 하여금, 상기 억제 방사선 영상에 대해 연조직(soft tissue)의 해상도 또는 콘트라스트를 향상시키는 연조직 향상 과정을 수행하여 상기 의료 영상을 획득하도록 하는 엑스선 장치.
  7. 제1항에 있어서,
    상기 명령어들은, 상기 적어도 하나의 프로세서로 하여금, 상기 원본 방사선 영상에서 상기 대상체의 적어도 하나의 미리 결정된 영역이 추출된 마스크 영상을 생성하도록 하는 엑스선 장치.
  8. 제1항에 있어서,
    상기 명령어들은, 상기 적어도 하나의 프로세서로 하여금, 상기 원본 방사선 영상에 대해 전처리 과정을 수행하도록 하고,
    상기 전처리 과정은, 스캐터 방사선 처리 과정, 노이즈 제거 과정 또는 콘트라스트 조절 과정 중 적어도 하나를 포함하는 엑스선 장치.
  9. 엑스선 장치를 제어하는 방법에 있어서,
    대상체에게 엑스선을 조사하고;
    상기 대상체를 투과한 엑스선을 검출하고;
    상기 검출된 엑스선으로부터 상기 대상체에 대한 원본 방사선 영상을 획득하고;
    상기 원본 방사선 영상을, 복수의 방사선 영상들로부터 대응되는 뼈 구조 방사선 영상을 추정하도록 학습된 학습 네트워크 모델(learning network model)에 입력하여, 상기 대상체에 포함된 뼈 구조의 뼈 구조 방사선 영상을 획득하고;
    상기 뼈 구조 방사선 영상을 이용하여 상기 원본 방사선 영상으로부터 상기 대상체에 포함된 뼈 구조의 적어도 일부가 억제(suppression)된 의료 영상을 획득하는 것;을 포함하는 엑스선 장치의 제어방법.
  10. 제9항에 있어서,
    상기 학습 네트워크 모델은 인공 지능 신경망 모델 또는 딥 러닝 네트워크 모델 중 적어도 하나를 포함하고,
    상기 인공 지능 신경망 모델 또는 딥 러닝 네트워크 모델 중 적어도 하나는,
    외부 장치를 통해 획득된 상기 복수의 방사선 영상들을 이용하여 학습된, 엑스선 장치의 제어방법.
  11. 제9항에 있어서,
    상기 뼈 구조 방사선 영상을 획득하는 것은,
    상기 원본 방사선 영상을 미리 설정된 방향으로 회전시키는 뼈 처리 과정을 수행하는 것;을 더 포함하는 엑스선 장치의 제어방법.
  12. 제11항에 있어서,
    상기 뼈 구조 방사선 영상을 획득하는 것은,
    상기 학습 네트워크 모델을 이용하여 상기 회전된 원본 방사선 영상으로부터 상기 대상체에 포함된 뼈 구조를 추출하여 뼈 확률 맵(bone probability map; BPM)을 생성하는 것;을 더 포함하는 엑스선 장치의 제어방법.
  13. 제12항에 있어서,
    상기 의료 영상을 획득하는 것은,
    상기 뼈 확률 맵 및 상기 원본 방사선 영상에 기초하여 상기 원본 방사선 영상으로부터 상기 대상체에 포함된 뼈 구조의 적어도 일부가 억제(suppression)된 억제 방사선 영상을 획득하는 것;을 포함하는 엑스선 장치의 제어방법.
  14. 제13항에 있어서,
    상기 의료 영상을 획득하는 것은,
    상기 억제 방사선 영상에 대해 연조직(soft tissue)의 해상도 또는 콘트라스트를 향상시키는 연조직 향상 과정을 수행하는 것;을 더 포함하는 엑스선 장치의 제어방법.
  15. 제9항에 있어서,
    상기 원본 방사선 영상에서 상기 대상체의 적어도 하나의 미리 결정된 영역이 추출된 마스크 영상을 생성하는 것;을 더 포함하는 엑스선 장치의 제어방법.
  16. 제9항에 있어서,
    상기 원본 방사선 영상에 대해 전처리 과정을 수행하는 것;을 더 포함하고,
    상기 전처리 과정은, 스캐터 방사선 처리 과정, 노이즈 제거 과정 또는 콘트라스트 조절 과정 중 적어도 하나를 포함하는 엑스선 장치의 제어방법.
KR1020220058630A 2016-11-25 2022-05-12 엑스선 장치 및 이의 의료 영상 획득 KR102665022B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662426344P 2016-11-25 2016-11-25
US62/426,344 2016-11-25
KR1020170034381A KR102399148B1 (ko) 2016-11-25 2017-03-20 엑스선 장치 및 이의 의료 영상 획득

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170034381A Division KR102399148B1 (ko) 2016-11-25 2017-03-20 엑스선 장치 및 이의 의료 영상 획득

Publications (2)

Publication Number Publication Date
KR20220068968A true KR20220068968A (ko) 2022-05-26
KR102665022B1 KR102665022B1 (ko) 2024-05-17

Family

ID=60673078

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020170034381A KR102399148B1 (ko) 2016-11-25 2017-03-20 엑스선 장치 및 이의 의료 영상 획득
KR1020220058630A KR102665022B1 (ko) 2016-11-25 2022-05-12 엑스선 장치 및 이의 의료 영상 획득

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020170034381A KR102399148B1 (ko) 2016-11-25 2017-03-20 엑스선 장치 및 이의 의료 영상 획득

Country Status (4)

Country Link
US (2) US11083421B2 (ko)
EP (1) EP3326534B1 (ko)
KR (2) KR102399148B1 (ko)
WO (1) WO2018097641A1 (ko)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201703291D0 (en) * 2017-03-01 2017-04-12 Ibex Innovations Ltd Apparatus and method for the correction of scatter in a radiographic system
US10475214B2 (en) * 2017-04-05 2019-11-12 General Electric Company Tomographic reconstruction based on deep learning
US10803555B2 (en) * 2017-08-31 2020-10-13 Shanghai United Imaging Healthcare Co., Ltd. System and method for determining a trained neural network model for scattering correction
KR102020221B1 (ko) 2017-11-24 2019-09-10 주식회사 레이 치과용 콘-빔 ct의 산란선 보정방법 및 보정장치
US10823685B2 (en) * 2018-01-16 2020-11-03 Creative Electron, Inc. Method and system to automatically inspect parts using x-rays
US10776923B2 (en) * 2018-06-21 2020-09-15 International Business Machines Corporation Segmenting irregular shapes in images using deep region growing
US10643092B2 (en) 2018-06-21 2020-05-05 International Business Machines Corporation Segmenting irregular shapes in images using deep region growing with an image pyramid
JP7355532B2 (ja) * 2018-06-29 2023-10-03 キヤノンメディカルシステムズ株式会社 医用情報処理装置、方法及びプログラム
US11493585B2 (en) * 2018-06-29 2022-11-08 Canon Medical Systems Corporation Medical information processing apparatus and medical information processing method
EP3603519B1 (en) 2018-07-30 2021-04-07 Deutsches Krebsforschungszentrum A method for generating an image of an object from measurement data
GB2576772B (en) 2018-08-31 2023-01-25 Ibex Innovations Ltd X-ray Imaging system
JP7224829B2 (ja) * 2018-09-28 2023-02-20 キヤノンメディカルシステムズ株式会社 医用画像処理装置および方法
KR102182048B1 (ko) * 2018-11-21 2020-11-23 이희신 엑스선 영상 산란 보정 시스템 및 방법
US10937206B2 (en) * 2019-01-18 2021-03-02 Canon Medical Systems Corporation Deep-learning-based scatter estimation and correction for X-ray projection data and computer tomography (CT)
US11224399B2 (en) * 2019-07-12 2022-01-18 Canon Medical Systems Corporation Apparatus and method using deep learning (DL) to compensate for large focal spot size in x-ray projection imaging
US11080833B2 (en) * 2019-11-22 2021-08-03 Adobe Inc. Image manipulation using deep learning techniques in a patch matching operation
EP3858242A1 (en) * 2020-02-03 2021-08-04 Koninklijke Philips N.V. Cleaning and charging portable x-ray detectors
KR102490504B1 (ko) * 2022-02-15 2023-01-19 프로메디우스 주식회사 기계 학습 모델을 이용하여 소아의 단순 x선 이미지 처리를 위한 의료 영상 처리 방법 및 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200062A (ja) * 2000-12-27 2002-07-16 Canon Inc X線画像撮影装置及び方法、制御装置及び方法
JP2008520344A (ja) * 2004-11-19 2008-06-19 ケアストリーム ヘルス インク 放射線写真画像の向きを検知及び補正する方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8802184A (nl) 1988-09-05 1990-04-02 Philips Nv Werkwijze en inrichting voor correctie van strooistralingseffecten in roentgenbeelden.
EP0660599B2 (en) 1993-12-24 2002-08-14 Agfa-Gevaert Partially-transparent-shield-method for scattered radiation compensation in x-ray imaging
JP3184092B2 (ja) * 1996-05-27 2001-07-09 シャープ株式会社 画像処理方法
DE102004029010A1 (de) 2004-06-16 2006-01-19 Siemens Ag Vorrichtung und Verfahren für die Streustrahlungskorrektur in der Projektionsradiographie, insbesondere der Mammographie
DE102006045722B4 (de) 2006-09-27 2014-11-27 Siemens Aktiengesellschaft Verfahren zur Korrektur der Streustrahlung in der Projektionsradiographie und der Comupter-Tomographie und Apparat hierfür
US8433154B2 (en) * 2010-12-13 2013-04-30 Carestream Health, Inc. Enhanced contrast for scatter compensation in X-ray imaging
EP2890300B1 (en) * 2012-08-31 2019-01-02 Kenji Suzuki Supervised machine learning technique for reduction of radiation dose in computed tomography imaging
US9370330B2 (en) * 2013-02-08 2016-06-21 Siemens Medical Solutions Usa, Inc. Radiation field and dose control
WO2014144019A1 (en) * 2013-03-15 2014-09-18 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for real-time 2d/3d deformable registration using metric learning
WO2015028069A1 (de) 2013-08-29 2015-03-05 Siemens Aktiengesellschaft Computertomographie mit bewegungskompensation
CN105682559B (zh) 2013-09-25 2019-07-09 瓦里安医疗系统公司 用于估计散射的方法和系统
JP6128463B2 (ja) 2013-11-06 2017-05-17 富士フイルム株式会社 放射線画像処理装置および方法並びにプログラム
JP6129125B2 (ja) * 2013-11-29 2017-05-17 富士フイルム株式会社 放射線画像解析装置および方法並びにプログラム
JP6169626B2 (ja) 2014-03-10 2017-07-26 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US9615808B2 (en) 2014-05-27 2017-04-11 Koninklijke Philips N.V. Method and radiography system for grid-like contrast enhancement
US10417525B2 (en) * 2014-09-22 2019-09-17 Samsung Electronics Co., Ltd. Object recognition with reduced neural network weight precision
JP6676655B2 (ja) * 2015-04-13 2020-04-08 ケース ウエスタン リザーブ ユニバーシティ 二重エネルギーx線冠動脈カルシウムのグレード付け
CN105574828B (zh) * 2015-12-22 2019-01-25 沈阳东软医疗系统有限公司 图像散射校正方法、装置及设备
CN107516330B (zh) * 2017-08-31 2021-02-09 上海联影医疗科技股份有限公司 模型生成方法、图像处理方法及医学成像设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002200062A (ja) * 2000-12-27 2002-07-16 Canon Inc X線画像撮影装置及び方法、制御装置及び方法
JP2008520344A (ja) * 2004-11-19 2008-06-19 ケアストリーム ヘルス インク 放射線写真画像の向きを検知及び補正する方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
S. Chen. 외, "Separation of Bones From Chest Radiographs by Means of Anatomically Specific Multiple Massive-Training ANNs Combined With Total Variation Minimization Smoothing," 2013.10.11. 공개.* *
W. Yang. 외, "Cascade of multi-scale convolutional neural networks for bone suppression of chest radiographs in gradient domain" 2016.08.16. 공개.* *

Also Published As

Publication number Publication date
EP3326534A1 (en) 2018-05-30
WO2018097641A1 (en) 2018-05-31
KR102665022B1 (ko) 2024-05-17
EP3326534B1 (en) 2021-03-17
US11083421B2 (en) 2021-08-10
KR20180059329A (ko) 2018-06-04
US20210212641A1 (en) 2021-07-15
KR102399148B1 (ko) 2022-05-19
US20180146935A1 (en) 2018-05-31
US11589831B2 (en) 2023-02-28

Similar Documents

Publication Publication Date Title
KR102399148B1 (ko) 엑스선 장치 및 이의 의료 영상 획득
EP3525171B1 (en) Method and system for 3d reconstruction of x-ray ct volume and segmentation mask from a few x-ray radiographs
CN108078576B (zh) 医学图像处理的装置、方法、计算机可读程序以及移动对象跟踪装置和放射治疗系统
CN109937012B (zh) 为成像系统选择采集参数
WO2021213519A1 (zh) 图像获取、判断图像质量、医学图像采集的方法和系统
CN108744306B (zh) 被检体定位装置、被检体定位方法和放射线治疗系统
US20200226752A1 (en) Apparatus and method for processing medical image
CN111374675A (zh) 用于在医学成像会话中检测患者状态的系统和方法
KR20190046471A (ko) 의료 영상 처리 방법 및 그에 따른 의료 영상 처리 장치
KR20180099434A (ko) 환자를 모니터링하는 방법 및 장치
KR102579039B1 (ko) 의료용 화상 처리 장치, 치료 시스템, 및 의료용 화상 처리 프로그램
US9259200B2 (en) Method and system for obtaining a sequence of x-ray images using a reduced dose of ionizing radiation
KR20170088742A (ko) 워크스테이션 이를 포함하는 의료영상 장치, 및 그 제어방법
JP2022545355A (ja) 医療機器を識別、ラベル付け、及び追跡するためのシステム及び方法
JP2023505376A (ja) 介入のための患者モデル推定
CN110022772B (zh) X射线装置及其获取医学图像的方法
KR20190049524A (ko) 의료 영상 전송 방법 및 그에 따른 의료 영상 장치
CN111968167A (zh) Ct三维定位像的图像处理方法、装置和计算机设备
US20230083134A1 (en) Generating a temporary image
WO2020209826A1 (en) Deep reinforcement learning for computer assisted reading and analysis
JP7353900B2 (ja) X線診断装置、医用画像処理装置及びプログラム
JP2023517706A (ja) 最小フラッシュ眼疾患診断のための画像保持およびスティッチング
AU2021418742A1 (en) Detection of foreign objects in intraoperative images
CN117323581A (zh) 表面引导的监测中确定感兴趣区的方法、系统和可读介质

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant