KR20200095859A - 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치 - Google Patents

엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치 Download PDF

Info

Publication number
KR20200095859A
KR20200095859A KR1020190013751A KR20190013751A KR20200095859A KR 20200095859 A KR20200095859 A KR 20200095859A KR 1020190013751 A KR1020190013751 A KR 1020190013751A KR 20190013751 A KR20190013751 A KR 20190013751A KR 20200095859 A KR20200095859 A KR 20200095859A
Authority
KR
South Korea
Prior art keywords
information
ray image
ray
image processing
image
Prior art date
Application number
KR1020190013751A
Other languages
English (en)
Inventor
이재목
박민철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190013751A priority Critical patent/KR20200095859A/ko
Priority to EP20153662.0A priority patent/EP3689241B1/en
Priority to US16/773,317 priority patent/US11373308B2/en
Priority to CN202010078275.2A priority patent/CN111513737A/zh
Publication of KR20200095859A publication Critical patent/KR20200095859A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/505Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of bone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5282Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/542Control of apparatus or devices for radiation diagnosis involving control of exposure
    • A61B6/544Control of apparatus or devices for radiation diagnosis involving control of exposure dependent on patient size
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 개시의 실시예는 하나의 엑스선 영상을 이용하여 대상체를 구성하는 서로 다른 두 개 이상의 물질에 대한 정보를 획득할 수 있는 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치를 개시한다.

Description

엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치 {METHOD FOR PROCESSING OF A X-RAY IMAGE AND APPARATUS FOR PROCESSING A X-RAY IMAGE PERFORMING THE SAME}
본 개시의 실시예들은 엑스선 영상을 분석하여 대상체와 관련되는 정보를 획득하기 위한 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치에 대한 것이다.
엑스선 장치는 엑스선을 인체에 투과시켜 인체의 내부 구조를 이미지로 획득하는 의료 영상 장치이다. 엑스선 장치는 MRI 장치, CT 장치 등을 포함하는 다른 의료 영상 장치에 비해 간편하고, 짧은 시간 내에 대상체의 의료 이미지를 획득할 수 있다는 장점이 있다. 따라서, 엑스선 장치는 단순 흉부 촬영, 단순 복부 촬영, 단순 골격 촬영, 단순 부비동 촬영, 단순 경부 연조직(neck soft tissue) 촬영 및 유방 촬영 등에 널리 이용되고 있다.
여기서, 엑스선(X-ray)이란, 일반적으로 0.01 ~ 100 옴스트롬(
Figure pat00001
)의 파장을 갖는 전자기파로서, 물체를 투과하는 성질을 가지고 있어서 생체 내부를 촬영하는 의료장비나 일반산업의 비파괴검사장비 등에 일반적으로 널리 사용될 수 있다.
엑스선을 이용하는 엑스선 장치는 엑스선 소스에서 방출된 엑스선을 대상체에 투과시키고, 투과된 엑스선의 강도 차이를 엑스선 디텍터에서 검출하여 대상체에 대한 엑스선 영상을 획득할 수 있다. 엑스선 영상으로 대상체의 내부 구조를 파악하고 대상체를 진단할 수 있다. 엑스선 장치는 대상체의 밀도, 대상체를 구성하는 원자의 원자번호에 따라 엑스선의 투과율이 달라지는 원리를 이용하여 대상체의 내부 구조를 손쉽게 파악할 수 있다는 장점이 있다. 엑스선 장치는 일반적으로 대상체를 전면적으로 촬영하여 대상체에 대응되는 투사(Projection) 영상을 생성할 수 있다. 따라서, 1회의 엑스선 촬영을 통하여 획득한 하나의 엑스선 영상은, 대상체의 입체적 구조, 대상체의 입체적 구조에 대응되는 측정 값(예를 들어, 대상체 내의 장기 또는 조직의 두께 등), 또는 대상체를 형성하는 복수의 서로 다른 물질의 특성 값들(예를 들어, 대상체 내의 지방의 부피 등) 등을 측정하기에는 적합하지 않다.
최근에는 복수개의 에너지 대역들을 갖는 엑스선들 각각을 대상체로 조사하는 복수회의 엑스선 촬영을 통하여 획득된 복수개의 엑스선 영상들을 이용하여, 대상체의 입체적 구조, 대상체의 입체적 구조에 대응되는 측정 값(예를 들어, 대상체 내의 장기 또는 조직의 두께 등), 또는 대상체를 형성하는 복수의 서로 다른 물질의 특성 값들(예를 들어, 대상체 내의 지방의 부피 등) 등을 획득하기 위한 장치 및 방법들이 개발되고 있다.
그러나, 엑스선 촬영을 위해서 대상체로 조사되는 엑스선은 방사선이므로 인체에 유해하다는 단점이 있다. 따라서, 사용자는 촬영 대상체를 포함하는 환자에게 노출되는 방사선량(dose)을 최소화하여 엑스선 촬영을 진행하여야 할 필요가 있다. 따라서, 전술한 바와 같이 복수회의 엑스선 촬영을 수행하는 경우 환자에게 노출되는 방사선량이 증가하게 되는 문제가 있다. 또한, 전술한 바와 같이 복수회의 엑스선을 촬영을 수행하는 경우 환자 움직임이나 내부 장기의 움직임에 의하여 영상 화질이 떨어지는 문제가 있다.
또한, 엑스선 영상으로부터 대상체를 형성하는 물질들에 대한 정보를 보다 정확하게 측정하여야만 정확한 진단이 가능하다. 그러므로, 엑스선 영상으로부터 대상체를 형성하는 물질들에 대한 정보를 보다 빠르고 정확하게 측정할 필요가 있다.
따라서, 엑스선 촬영 횟수 또는 환자에게 노출되는 방사선량을 최소화하면서, 대상체에 관한 다양한 정보들을 정확하게 획득할 수 있도록 하는 방법 및 장치를 개발할 필요가 있다.
본 개시의 실시예는 하나의 엑스선 영상을 이용하여 대상체를 구성하는 서로 다른 두 개 이상의 물질에 대한 정보를 획득할 수 있는 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치의 제공을 목적으로 한다.
구체적으로, 본 개시의 실시예는, 단일 에너지 대역을 갖는 엑스선을 대상체로 조사하여 획득된 제1 엑스선 영상을 이용하여, 연조직 및 뼈에 대한 정보를 획득할 수 있는 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치의 제공을 목적으로 한다.
본 개시의 실시예에 따른 엑스선 영상 처리 방법은 서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상을 획득하는 단계; 3차원 카메라를 이용하여 상기 대상체에 대한 3차원 정보를 획득하는 단계; 상기 3차원 정보에 근거하여 상기 대상체의 두께에 대한 제1 정보를 획득하는 단계; 및 상기 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 상기 대상체로부터 상기 제1 물질을 분리하여 상기 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하는 단계를 포함할 수 있다.
또한, 본 개시의 실시예에 따른 엑스선 영상 처리 방법은 상기 제1 정보 및 상기 제2 정보에 근거하여, 상기 제2 물질의 입체적 구조와 관련된 제3 정보를 획득하는 단계를 더 포함할 수 있다.
또한, 상기 제2 정보를 획득하는 단계는 상기 제1 정보 및 상기 제1 엑스선 영상에서 나타나는 엑스선 흡수 특성에 근거하여, 상기 제2 정보를 획득하는 단계를 포함할 수 있다.
또한, 상기 제1 물질은 연조직이며, 상기 제2 물질은 뼈가 될 수 있다.
또한, 상기 제2 정보는 상기 연조직의 두께, 부피, 부피 구성비율, 및 영역별 골밀도 중 적어도 하나를 포함하며, 상기 제3 정보는 상기 뼈의 두께, 부피, 부피 구성비율, 및 영역별 골밀도 중 적어도 하나를 포함할 수 있다.
또한, 상기 제2 정보는 상기 제1 물질의 두께에 대한 정보를 포함하며, 상기 제3 정보는 상기 제2 물질의 두께에 대한 정보를 포함할 수 있다.
또한, 본 개시의 실시예에 따른 엑스선 영상 처리 방법은 상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상에 대한 산란 보정을 수행하는 단계를 더 포함할 수 있다.
또한, 상기 제1 정보를 획득하는 단계는 상기 3차원 정보에 근거하여, 상기 3차원 카메라로부터 상기 대상체 표면까지의 거리를 측정하는 단계; 및 상기 표면까지의 거리에 근거하여 상기 대상체의 두께에 대한 상기 제1 정보를 획득하는 단계를 포함할 수 있다.
또한, 본 개시의 실시예에 따른 엑스선 영상 처리 방법은 상기 제2 정보 및 상기 제3 정보에 근거하여 상기 제1 엑스선 영상에 대하여 산란 보정을 수행하여, 산란 보정된 상기 제1 엑스선 영상을 획득하는 단계; 및 상기 산란 보정된 제1 엑스선 영상에 근거하여 상기 제2 정보 및 상기 제3 정보를 갱신하는 단계를 더 포함할 수 있다.
또한, 상기 산란 보정을 수행하는 단계는 상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선의 분포를 나타내는 산란 맵(scatter map)을 생성하는 단계; 및 상기 산란 맵을 이용하여, 상기 제1 엑스선 영상에서 산란 엑스선에 대응되는 잡음 신호를 제거하는 산란 보정을 수행하여 상기 산란 보정된 제1 엑스선 영상을 획득하는 단계를 포함를 포함할 수 있다.
또한, 본 개시의 실시예에 따른 엑스선 영상 처리 방법은 상기 제2 정보, 및 상기 제3 정보에 근거하여, 상기 대상체를 대상으로 투사 시뮬레이션(projection simulation)을 수행하여 생성된 제1 가상 엑스선 영상을 획득하는 단계; 및 상기 제1 가상 엑스선 영상과 상기 제1 엑스선 영상 간의 비교 결과에 근거하여, 상기 제2 정보, 상기 제3 정보 및 상기 산란 맵을 갱신할지 여부를 결정하는 단계를 더 포함할 수 있다.
또한, 상기 제1 가상 엑스선 영상을 획득하는 단계는 상기 투사 시뮬레이션을 통하여, 입사된 엑스선이 상기 대상체에 대응되는 팬텀(phantom)를 그대로 통과하여 생성되는 투사 영상(Primary Transmission images)을 생성하는 단계; 및 상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선의 분포를 나타내는 산란 맵(scatter map)을 생성하는 단계; 상기 투사 영상과 상기 산란맵을 더하여 상기 제1 가상 엑스선 영상을 획득하는 단계를 포함할 수 있다.
또한, 본 개시의 실시예에 따른 엑스선 영상 처리 방법은 상기 제1 정보, 상기 제2 정보, 상기 제3 정보 중 적어도 하나를 포함하는 사용자 인터페이스 화면을 출력하는 단계를 더 포함할 수 있다.
또한, 상기 제1 엑스선 영상은 단일 에너지 대역을 갖는 엑스선을 대상체로 조사하여 획득된 엑스선 영상이 될 수 있다.
본 개시의 실시예에 따른 엑스선 영상 처리 장치는 서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상 및 3차원 카메라를 이용하여 획득된 상기 대상체에 대한 3차원 정보를 획득하는 데이터 획득부; 및 적어도 하나의 인스트럭션을 실행하는 프로세서를 적어도 하나 포함하는 영상 처리부를 포함한다. 상기 영상 처리부는, 적어도 하나의 인스트럭션을 실행하여, 상기 3차원 정보에 근거하여 상기 대상체의 두께에 대한 제1 정보를 획득하고, 상기 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 상기 대상체로부터 상기 제1 물질을 분리하여 상기 제1 물질의 입체적 구조와 관련된 제2 정보를 획득한다.
본 개시의 실시예에 따른 기록매체에 저장된 컴퓨터 프로그램은, 서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상을 획득하는 단계; 3차원 카메라를 이용하여 상기 대상체에 대한 3차원 정보를 획득하는 단계; 상기 3차원 정보에 근거하여 상기 대상체의 두께에 대한 제1 정보를 획득하는 단계; 및 상기 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 상기 대상체로부터 상기 제1 물질을 분리하여 상기 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하는 단계를 포함하는 엑스선 영상 처리 방법을 컴퓨터에서 실행시키기 위해서 기록매체에 저장된 컴퓨터 프로그램이다.
본 개시의 실시예는 3차원 카메라를 이용하여 획득된 3차원 정보 및 한 장의 엑스선 영상을 이용하여 대상체를 구성하는 서로 다른 두 개 이상의 물질에 대한 정보를 획득할 수 있는 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치의 제공을 목적으로 한다.
구체적으로, 본 개시의 실시예는, 3차원 카메라를 이용하여 획득된 3차원 정보 및 단일 에너지 대역을 갖는 엑스선을 대상체로 조사하여 획득된 제1 엑스선 영상을 이용하여, 연조직 및 뼈에 대한 정보를 빠르게 획득할 수 있는 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치의 제공을 목적으로 한다.
또한, 본 개시의 실시예는 3차원 카메라를 이용하여 획득된 3차원 정보에 근거하여 서로 다른 두 개 이상의 물질에 대한 정보를 획득하고, 획득된 정보에 근거하여 엑스선 영상 내의 산란 방사선에 대응되는 잡음 신호를 제거할 수 있다. 그에 따라서, 엑스선 영상의 화질을 개선할 수 있다.
또한, 본 개시의 실시예는 물질 분리 동작 및 산란 추정 동작을 반복 실시하여 산란을 제거함으로써, 최상의 화질을 갖는 최종 엑스선 영상을 생성할 수 있다. 그에 따라서, 최종 엑스선 영상에 근거하여 제2 정보 및 제3 정보를 획득할 수 있으며, 제2 정보 및 제3 정보의 정확도를 높일 수 있다.
도 1은 엑스선 장치의 구성을 도시하는 외관도이다.
도 2는 본 개시의 실시예에 따른 엑스선 영상 처리 장치를 나타내는 블록도이다.
도 3은 본 개시의 실시예에 따른 엑스선 영상 처리 장치를 나타내는 다른 블록도이다.
도 4는 본 개시의 실시예에 따른 엑스선 영상 처리 장치를 나타내는 다른 블록도이다.
도 5는 본 개시의 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다.
도 6은 본 개시의 실시예에 따른 엑스선 영상 처리 방법을 나타내는 다른 흐름도이다.
도 7은 본 개시의 실시예에 따른 엑스선 영상 처리 방법을 나타내는 다른 흐름도이다.
도 8은 본 개시의 실시예에서 엑스선 영상의 획득 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 실시예에서 3차원 정보의 획득 동작을 설명하기 위한 도면이다.
도 10은 3차원 정보에 근거하여 제1 정보를 획득하는 동작을 설명하기 일 위한 도면이다.
도 11은 3차원 정보에 근거하여 제1 정보를 획득하는 동작을 설명하기 위한 다른 도면이다.
도 12는 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다.
도 13은 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 다른 흐름도이다.
도 14는 본 개시의 실시예에서 수행되는 산란 보정 동작을 설명하기 위한 일 도면이다.
도 15는 본 개시의 실시예에서 수행되는 산란 보정 동작을 설명하기 위한 다른 도면이다.
도 16은 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다.
도 17은 본 개시의 다른 실시예에서 제1 부분 영역 및 제2 부분 영역의 획득 동작을 설명하기 위한 일 도면이다.
도 18은 본 개시의 다른 실시예에서 뼈의 두께 및 연조직의 두께의 획득 동작을 설명하기 위한 다른 도면이다.
도 19는 제1 부분 영역 및 제2 부분 영역을 획득하기 위한 연산을 수행하는 신경망을 설명하기 위한 도면이다.
도 20은 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다.
본 명세서는 본 발명의 권리범위를 명확히 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 실시할 수 있도록, 본 발명의 원리를 설명하고, 실시예들을 개시한다. 개시된 실시예들은 다양한 형태로 구현될 수 있다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 '부'(part, portion)라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부'가 하나의 요소(unit, element)로 구현되거나, 하나의 '부'가 복수의 요소들을 포함하는 것도 가능하다. 이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
본 명세서에서 영상은 자기 공명 영상(MRI) 장치, 컴퓨터 단층 촬영(CT) 장치, 초음파 촬영 장치, 또는 엑스레이 촬영 장치 등의 의료 영상 장치에 의해 획득된 의료 영상을 포함할 수 있다.
본 명세서에서 '대상체(object)'는 촬영의 대상이 되는 것으로서, 사람, 동물, 또는 그 일부를 포함할 수 있다. 예를 들어, 대상체는 신체의 일부(장기 또는 기관 등; organ) 또는 팬텀(phantom) 등을 포함할 수 있다.
도 1은 일 실시예에 따른 엑스선 장치의 구성을 도시하는 외관도이다. 도 1에서는 고정식 엑스선 장치를 예로 들어 설명한다.
도 1을 참조하면, 엑스선 장치(100)는 엑스선을 발생시켜 조사하는 엑스선 조사부(110), 엑스선 조사부로부터 조사되어 대상체를 투과한 엑스선을 검출하는 엑스선 디텍터(195), 및 사용자로부터 명령을 입력 받고 정보를 제공하는 워크스테이션(180)을 포함한다. 또한, 엑스선 장치(100)는 입력된 명령에 따라 엑스선 장치(100)를 제어하는 제어부(120) 및 외부 장치와 통신하는 통신부(140)를 포함할 수 있다.
제어부(120) 및 통신부(140)의 구성요소 중 일부 또는 전부는 워크스테이션(180)에 포함되거나 워크스테이션(180)과 별도로 마련될 수 있다.
엑스선 조사부(110)는 엑스선을 발생시키는 엑스선 소스와, 엑스선 소스에서 발생되는 엑스선의 조사영역을 조절하는 콜리메이터(collimator)를 구비할 수 있다.
엑스선 장치(100)가 배치되는 검사실 천장에는 가이드 레일(30)이 설치될 수 있고, 가이드 레일(30)을 따라 이동하는 이동 캐리지(40)에 엑스선 조사부(110)를 연결하여 대상체(P)에 대응되는 위치로 엑스선 조사부(110)를 이동시킬 수 있고, 이동 캐리지(40)와 엑스선 조사부(110)는 절첩 가능한 포스트 프레임(50)을 통해 연결되어 엑스선 조사부(110)의 높이를 조절할 수 있다.
워크스테이션(180)에는 사용자의 명령을 입력 받는 입력부(181) 및 정보를 표시하는 디스플레이(182)가 마련될 수 있다.
입력부(181)는 촬영 프로토콜, 촬영 조건, 촬영 타이밍, 엑스선 조사부(110)의 위치 제어 등을 위한 명령을 입력 받을 수 있다. 입력부(181)는 키보드, 마우스, 터치스크린, 음성 인식기, 등을 포함할 수 있다.
디스플레이(182)는 사용자의 입력을 가이드 하기 위한 화면, 엑스선 영상, 엑스선 장치(100)의 상태를 나타내는 화면 등을 표시할 수 있다.
제어부(120)는 사용자로부터 입력된 명령에 따라 엑스선 조사부(110)의 촬영 타이밍, 촬영 조건 등을 제어할 수 있고, 엑스선 디텍터(195)로부터 수신된 이미지 데이터를 이용하여 의료 이미지를 생성할 수 있다. 또한, 제어부(120)는 촬영 프로토콜 및 대상체(P)의 위치에 따라 엑스선 조사부(110)나 엑스선 디텍터(195)가 장착된 장착부(14, 24)의 위치 또는 자세를 제어할 수도 있다.
본 개시의 실시예에서, 엑스선 장치(100)는 영상 처리부(130)를 더 포함할 수 있다. 영상처리부(130)는 엑스선 디텍터(195)로부터 수신된 이미지 데이터를 이용하여 의료 이미지를 생성할 수 있고, 이미지 생성 동작을 수행하는 프로그램이 저장된 메모리 및 저장된 프로그램을 실행하는 프로세서로 형성될 수 있다.
또한, 본 개시의 실시예에서, 제어부(120)는 영상 처리부(130)를 포함할 수 있다. 즉, 영상 처리부(130)는 제어부(120) 내에 포함되는 적어도 하나의 프로세서 중 적어도 하나가 될 수 있다.
전술한 바와 같이, 의료 이미지의 생성 동작은 제어부(120) 및 영상 처리부(130) 중 적어도 하나에 의해서 수행될 수 있다. 도 1에서는, 의료 이미지를 생성하는 동작이 제어부(120)에서 수행되는 경우를 예로 들어 설명하도록 한다.
제어부(120)는 전술한 동작 및 후술하는 동작을 수행하는 프로그램이 저장된 메모리 및 저장된 프로그램을 실행하는 프로세서를 포함할 수 있다. 제어부(120)는 단일 프로세서를 포함할 수도 있고, 복수의 프로세서를 포함할 수도 있는바, 후자의 경우에는 복수의 프로세서가 하나의 칩 상에 집적될 수도 있고, 물리적으로 분리될 수도 있다.
엑스선 장치(100)는 통신부(140)를 통해 외부 장치(150) (예를 들면, 외부의 서버(151), 의료 장치(152) 및 휴대용 단말(153; 스마트폰, 태브릿 PC, 웨어러블 장치 등)) 와 연결되어 데이터를 송신하거나 수신할 수 있다.
통신부(140)는 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다.
또한, 통신부(140)가 외부 장치로부터 제어 신호를 수신하고, 수신된 제어 신호를 제어부(120)에 전달하여 제어부(120)로 하여금 수신된 제어 신호에 따라 엑스선 장치(100)를 제어하도록 하는 것도 가능하다.
또한, 제어부(120)는 통신부(140)를 통해 외부 장치에 제어 신호를 송신함으로써, 외부 장치를 제어부의 제어 신호에 따라 제어하는 것도 가능하다. 예를 들어, 외부 장치는 통신부(140)를 통해 수신된 제어부(120)의 제어 신호에 따라 외부 장치의 데이터를 처리할 수 있다.
또한, 통신부(140)는 엑스선 장치(100)의 구성요소들 간에 통신을 가능하게 하는 내부 통신 모듈을 더 포함할 수도 있다. 외부 장치에는 엑스선 장치(100)를 제어할 수 있는 프로그램이 설치될 수 있는 바, 이 프로그램은 제어부(120)의 동작 중 일부 또는 전부를 수행하는 명령어를 포함할 수 있다.
프로그램은 휴대용 단말(153)에 미리 설치될 수도 있고, 휴대용 단말(153)의 사용자가 어플리케이션을 제공하는 서버로부터 프로그램을 다운로딩하여 설치하는 것도 가능하다. 어플리케이션을 제공하는 서버에는 해당 프로그램이 저장된 기록매체가 포함될 수 있다.
한편, 엑스선 디텍터(195)는 스탠드(20)나 테이블(10)에 고정된 고정형 엑스선 디텍터로 구현될 수도 있고, 장착부(14, 24)에 착탈 가능하게 장착되거나, 임의의 위치에서 사용 가능한 휴대용 엑스선 디텍터(portable x-ray detector)로 구현될 수도 있다. 휴대용 엑스선 디텍터는 데이터 전송 방식과 전원 공급 방식에 따라 유선 타입 또는 무선 타입으로 구현될 수 있다.
엑스선 디텍터(195)는 엑스선 장치(100)의 구성 요소로 포함될 수도 있고, 포함되지 않을 수도 있다. 후자의 경우, 엑스선 디텍터(195)는 사용자에 의해 엑스선 장치(100)에 등록될 수 있다. 또한, 두 경우 모두 엑스선 디텍터(195)는 통신부(140)를 통해 제어부(120)와 연결되어 제어 신호를 수신하거나 이미지 데이터를 송신할 수 있다.
엑스선 조사부(110)의 일 측면에는 사용자에게 정보를 제공하고 사용자로부터 명령을 입력 받는 서브 유저 인터페이스(80)가 마련될 수 있고, 워크 스테이션(180)의 입력부(181) 및 디스플레이(182)가 수행하는 기능 중 일부 또는 전부가 서브 유저 인터페이스(80)에서 수행될 수 있다.
제어부(120) 및 통신부(140)의 구성 요소 중 전부 또는 일부가 워크스테이션(180)과 별도로 마련되는 경우에는 엑스선 조사부(110)에 마련된 서브 유저인터페이스(80)에 포함될 수 있다.
도 1은 검사실의 천장에 연결된 고정식 엑스선 장치에 대해 도시하고 있지만, 엑스선 장치(100)는 C-암(arm) 타입 엑스선 장치, 모바일 엑스선 장치 등 당업자에게 자명한 범위 내에서 다양한 구조의 엑스선 장치를 포함할 수 있다.
본 개시의 실시예에서 이용되는 엑스선 영상(구체적으로, 제1 엑스선 영상)은 도 1에 도시된 엑스선 장치(100)에서 획득될 수 있다. 구체적으로, 엑스선 장치(100)는 엑스선 촬영을 통하여 대상체를 이미징한 엑스선 영상 또는 엑스선 영상을 획득하는데 이용되는 러 데이터(raw data)를 획득할 수 있다. 예를 들어, 러 데이터는 대상체를 투과한 엑스선을 엑스선 디텍터(195)가 감지할 때, 엑스선 디텍터(195)에서의 감지된 엑스선 광자량을 전기적으로 변환한 신호가 될 수 있다.
엑스선 영상의 판독, 또는 엑스선 영상을 이용한 진단의 용이성 향상을 위하여, 엑스선 영상 처리 장치는 엑스선 촬영을 통하여 획득된 엑스선 영상을 분석하고 그에 따른 결과를 이용할 수 있다. 여기서, 엑스선 영상은 환자의 대상체를 향하여 엑스선을 조사하고 대상체를 통과한 엑스선을 감지하여 획득된 영상으로, 대상체 내부를 나타내는 의료 영상이 될 수 있다. 또한, 엑스선 영상은 대상체를 시각적으로 표현하는 영상뿐만 아니라 영상을 생성하기 위해서 획득되는 데이터를 지칭할 수도 있을 것이다.
이하에서는, 엑스선 장치(100)를 이용하여 환자의 대상체로 직접 엑스선을 조사하여 수행한 엑스선 촬영을 통하여 획득된 의료 영상을 '엑스선 영상'이라 칭하고, 엑스선 촬영을 통하여 환자의 대상체로 직접 엑스선을 조사하지 않고 획득된 엑스선 영상을 '가상 엑스선 영상'라 칭하겠다.
본 개시의 실시예에서, 엑스선 영상 처리 장치는 i) 엑스선 영상을 이용하여 소정 정보를 획득하거나, ii) 엑스선 영상을 분석하여 진단 정보를 획득하거나, iii) 엑스선 영상에 근거하여 진단에 이용되는 모든 영상 또는 정보를 가공, 생성, 수정, 갱신 또는 디스플레이 할 수 있는 전자 장치를 의미할 수 있다.
구체적으로, 본 개시의 실시예에 따른 엑스선 영상 처리 장치는 엑스선 영상에 근거하여, 서로 다른 복수의 물질(예를 들어, 뼈, 연조직 등)을 분리하고, 복수의 물질들 각각에 대한 정보를 획득하는 전자 장치가 될 수 있다.
또한, 본 개시의 실시예에 따른 엑스선 영상 처리 장치는 캐드(CAD: Computer Aided Detection) 시스템, 기계 학습, 또는 AI 기술을 이용하여 연산을 수행하는 신경망(Neural Network) 시스템 등과 같은 영상 처리 기술을 이용하여, 엑스선 장치(100)에서 획득된 엑스선 영상을 컴퓨터로 분석하고 그 결과를 생성 및/또는 이용할 수 있다.
이하에서는, 3차원 카메라를 이용하여 획득된 3차원 정보 및 엑스선 영상으로부터 대상체를 형성하는 복수의 물질 각각에 대한 정보를 획득할 수 있는, 본 개시의 실시예에 따른 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치를 첨부된 도면들을 참조하여 상세히 설명한다.
본 개시의 실시예에 따른 엑스선 영상 처리 장치는 다양한 형태로 존재할 수 있다. 예를 들어, 본 개시의 실시예에 따른 엑스선 영상 처리 장치는 도 1의 엑스선 장치(100)의 워크 스테이션(180) 또는 콘솔(console) 상에 형성될 수 있다.
또 다른 예로, 본 개시의 실시예에 따른 엑스선 영상 처리 장치는 엑스선 장치(100)와 구별되는 독립된 별도의 장치 또는 서버 상에 형성될 수 있다. 여기서, 엑스선 장치(100)와 구별되는 독립된 별도의 장치 또는 서버를 '외부 장치'라 지칭할 수 있다. 예를 들어, 외부 장치로는 도 1에서 도시된 서버(151), 의료 장치(152), 및 휴대용 단말(153) 등이 될 수 있으며, 엑스선 장치(100)와 유무선의 통신 네트워크를 통하여 실제 엑스선 영상을 수신할 수 있다. 예를 들어, 본 개시의 실시예에 따른 엑스선 영상 처리 장치는 분석용 워크 스테이션, 외부의 의료 장치, PACS(Picture Archiving Communications System) 서버, PACS 뷰어, 외부 의료 서버, 또는 병원 서버 상에 형성될 수 있다.
도 2는 본 개시의 실시예에 따른 엑스선 영상 처리 장치를 나타내는 블록도이다.
도 2를 참조하면, 본 개시의 실시예에 따른 엑스선 영상 처리 장치(200)는 데이터 획득부(210) 및 영상 처리부(220)를 포함할 수 있다.
또한, 엑스선 영상 처리 장치(200)가 도 1에서 설명한 엑스선 장치(100) 내에 포함되는 경우, 도 2의 영상 처리부(220)는 도 1에 도시된 제어부(120) 또는 영상 처리부(130)에 동일 대응될 수 있다.
엑스선 영상은 대상체로 엑스선을 투사(projection)하여 대상체의 내부를 이미징한 영상이다. 따라서, 엑스선 조사 방향으로 대상체 내부가 중첩적으로 이미징된다. 구체적으로, 엑스선 영상에서는 대상체를 형성하는 복수의 물질들이 중첩적으로 이미징되어 있다. 따라서, 한 장의 엑스선 영상을 통하여 대상체 내부의 입체적 구조 또는 대상체를 형성하는 물질들 각각에 대한 입체적 구조와 관련된 정보를 획득하기 어려웠다.
본 개시의 실시예에서는, 3차원 카메라를 이용하여 획득한 3차원 정보 및 한 장의 엑스선 영상(구체적으로, 제1 엑스선 영상)을 이용하여, 대상체로부터 제1 물질을 분리하여 제1 물질의 입체적 구조와 관련된 정보를 획득할 수 있도록 한다.
데이터 획득부(210)는 서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상 및 3차원 카메라를 이용하여 획득된 대상체의 3차원 정보를 획득한다. 여기서, 제1 물질 및 제2 물질은 대상체를 형성하는 물질들로, 서로 다른 물질이다. 또는, 데이터 획득부(210)는 제1 엑스선 영상을 생성하기 위한 러 데이터(raw data)를 획득할 수 있다. 예를 들어, 데이터 획득부(210)는 제1 엑스선 영상을 생성하기 위한 러 데이터는 엑스선 감지 결과를 나타내는 전기 신호로 형성될 수 있다.
구체적으로, 대상체는 복수개의 서로 다른 물질들에 의해서 형성될 수 있다. 구체적으로, 대상체는 연조직(soft tissue), 뼈(bone), 혈액 등의 인체 형성 물질들에 의해서 형성될 수 있다. 또한, 연조직은, 근육, 지방, 연골, 섬유조직, 혈관 등 포함할 수 있다.
구체적으로, 제1 물질 및 제2 물질은 대상체를 형성하는 물질들 중 엑스선의 감쇠 특성이 서로 다른 물질들이 될 수 있다. 즉, 제1 물질 및 제2 물질들 각각의 엑스선 감쇠 계수는 서로 다른 값을 가질 수 있다.
그리고, 제1 엑스선 영상은 단일 에너지 대역(single energy band)을 갖는 엑스선을 대상체로 조사하여 획득된 엑스선 영상이 될 수 있다. 즉, 제1 엑스선 영상은 단일 에너지 대역에 대응되는 한 장의 엑스선 영상이다.
구체적으로, 대상체는 세포, 조직, 장기, 및 기타 인체 구성 물질 중 적어도 하나를 포함하는 신체 부위를 포함할 수 있다. 구체적으로, 대상체는 환자의 팔, 다리, 복부, 및/ 또는 가슴 등을 포함할 수 있다. 예를 들어, 팔을 형성하는 인체 물질들은, 크게 팔 뼈와 그를 둘러싸며 형성되는 연조직으로 구별될 수 있다. 예를 들어, 제1 엑스선 영상은 팔과 같이 뼈 및 연조직으로 형성된 환자의 신체 부위로 단일 에너지 대역을 갖는 엑스선을 조사하고, 환자의 팔을 투과하여 감지된 엑스선을 이용하여 이미징된 엑스선 영상이 될 수 있다.
그리고, 3차원 정보는 3차원 카메라로 대상체를 촬영하여 획득된 정보로, 대상체의 입체적 구조에 대한 정보를 포함할 수 있다. 구체적으로, 3차원 정보는, 대상체에 대한 깊이(depth) 정보를 포함할 수 있다. 구체적으로, 깊이(depth)는 3차원 카메라로부터 대상체가 얼마나 떨어져 있는지를 나타내는 거리값에 대응될 수 있다. 즉, 3차원 정보는 3차원 카메라로부터 대상체 표면까지의 거리에 대한 정보인 깊이 정보를 포함할 수 있다.
여기서, 3차원 카메라는 영상 내에서 이미징되는 대상체가 깊이감을 가지도록 하여 피사체를 촬영하는 영상 획득 장치를 의미한다. 구체적으로, 3차원 카메라는 스테레오 카메라 또는 깊이 카메라를 포함할 수 있으며, 장면에 존재하는 피사체(예를 들어, 환자)에 대한 3차원 정보를 획득할 수 있다. 예를 들어, 스테레오 카메라를 이용하여 3차원 정보를 획득하는 동작은 이하에서 도 8 및 도 9를 이용하여, 상세히 설명한다.
영상 처리부(220)는 영상의 생성, 영상의 처리, 영상의 변환, 및/또는 영상의 분석 등의 동작을 수행할 수 있다. 여기서, 영상의 처리는 영상을 분석하여 영상으로부터 목적하는 정보를 획득하는 동작을 포함할 수 있다.
영상 처리부(220)는 적어도 하나의 인스트럭션을 실행하는 프로세서(미도시)를 적어도 하나 포함한다. 그리고, 영상 처리부(220)는 적어도 하나의 인스트럭션을 실행하여, 하기의 동작들이 수행될 수 있도록 제어한다. 구체적으로, 영상 처리부(220)는 적어도 하나의 인스트럭션을 실행하여, 3차원 정보에 근거하여 대상체의 두께에 대한 제1 정보를 획득한다. 그리고, 제1 정보 및 제1 엑스선 영상에 근거하여, 대상체로부터 제1 물질을 분리하여 제1 물질의 입체적 구조와 관련된 제2 정보를 획득한다. 여기서, 입체적 구조와 관련된 정보는, 두께, 부피, 형상, 기하학 구조(geometry structure) 등에 대한 정보를 포함할 수 있다. 구체적으로, 제2 정보는, 대상체로 엑스선이 조사되는 방향으로의, 대상체에 포함되는 제1 물질에 대한 두께를 나타내는 정보가 될 수 있다.
또한, 영상 처리부(220)는 제1 정보 및 제2 정보에 근거하여, 제2 물질의 입체적 구조와 관련된 제3 정보를 획득할 수 있다.
본 개시의 실시예에서, 제1 물질은 연조직(soft tissue) 또는 뼈(bone)가 될 수 있다. 그리고, 제2 물질은 뼈(bone) 또는 연조직이 될 수 있다.
이하에서는, 제1 물질이 연조직이고, 제2 물질이 뼈인 경우를 예로 들어 설명한다.
즉, 본 개시의 실시예는, 3차원 정보 및 한장의 엑스선 영상(구체적으로, 제1 엑스선 영상)을 이용하여, 대상체로부터 제1 물질을 분리하여 제1 물질의 입체적 구조와 관련된 제2 정보를 획득한다.
구체적으로, 입체적 구조와 관련된 정보는 대상체 또는 대상체를 형성하는 적어도 하나의 물질을 나타내는 2차원 영상으로부터 파악할 수 있는 정보가 아닌, 대상체 또는 대상체를 형성하는 적어도 하나의 물질을 3차원적으로 나타내기 위해서 필요한 정보가 될 수 있다.
구체적으로, 제2 정보는 대상체를 형성하는 적어도 하나의 물질, 예를 들어, 제1 물질의 두께, 부피, 부피비율, 영역적 밀도 (areal density), 형상, 기하학 구조(geometry structure) 등에 대한 정보를 포함할 수 있다. 또한, 제3 정보는 대상체를 형성하는 적어도 하나의 물질, 예를 들어, 제2 물질의 두께, 부피, 부피비율, 영역적 밀도 (areal density), 형상, 기하학 구조(geometry structure) 등에 대한 정보를 포함할 수 있다. 또한, '두께'는 엑스선이 대상체를 통과하는 경로 상의 길이인, '투과 두께' 또는 '투사(Projection) 두께'를 의미할 수 있다.
본 개시의 실시예에서, 대상체로부터 제1 물질을 분리하여 제1 물질에 대한 제2 정보를 획득하는 것을 '물질 분리(material decomposition)'라고 칭할 수 있다.
또한, 데이터 획득부(210)는 다양한 방법으로 3차원 정보 및 제1 엑스선 영상을 획득할 수 있다.
예를 들어, 엑스선 영상 처리 장치(200)가 의료 영상 장치(예를 들어, 엑스선 장치(100))의 내부에 형성되는 경우, 엑스선 영상 처리 장치(200)는 자체적으로 엑스선 촬영을 수행하여 제1 엑스선 영상을 획득할 수 있을 것이다. 또 다른 예로, 엑스선 영상 처리 장치(200)와 의료 영상 장치(예를 들어, 엑스선 장치(100))와 독립적인 장치로 형성되는 경우, 의료 영상 장치로부터 유무선의 통신 네트워크를 통하여 제1 엑스선 영상을 수신할 수 있을 것이다. 이 경우, 데이터 획득부(210)는 내부적으로 통신부(예를 들어, 이하의 도 4에서 설명할 통신부(415))(도 2에서는 미도시 됨)를 포함할 수 있고, 내부적으로 구비되는 통신부(미도시)를 통하여 제1 엑스선 영상을 수신할 수 있다.
데이터 획득부(210)가 자체적으로 엑스선 촬영을 수행하여 엑스선 영상을 획득하는 동작 및 구성은 이하에서 도 3을 참조하여 상세히 설명한다.
또한, 데이터 획득부(210)는 3차원 카메라(미도시)를 포함할 수 있다. 그리고, 3차원 카메라(미도시)를 통하여 획득된 3차원 정보를 획득할 수 있다. 구체적으로, 데이터 획득부(210)는 3차원 카메라(미도시)를 이용하여 대상체에 대한 3차원 영상 촬영을 수행하여, 3차원 정보를 획득할 수 있다.
또한, 데이터 획득부(210)는 유무선의 통신 네트워크를 통하여, 3차원 정보를 수신할 수 있다. 이 경우, 데이터 획득부(210)는 내부적으로 통신부(예를 들어, 이하의 도 4에서 설명할 통신부(415))(도 2에서는 미도시 됨)를 포함할 수 있고, 내부적으로 구비되는 통신부(미도시)를 통하여 3차원 정보를 수신할 수 있다. 데이터 획득부(210)가 자체적으로 3차원 영상 촬영을 수행하여 3차원 정보를 획득하는 동작 및 구성은 이하에서 도 3, 도 8 및 도 9를 참조하여 상세히 설명한다.
또한, 영상 처리부(220)는 하나 이상의 인스트럭션을 수행하는 프로세서(미도시)를 적어도 하나 포함한다. 여기서, 적어도 하나의 프로세서 각각은 하나 이상의 인스트럭션 중 적어도 하나를 실행시킴으로써, 소정 동작을 실행할 수 있다.
또한, 영상 처리부(220)는 내부 메모리(미도시) 및 저장된 적어도 하나의 프로그램을 실행하는 적어도 하나의 프로세서(processor)(미도시)를 포함할 수 있다. 구체적으로, 영상 처리부(220)의 내부 메모리(미도시)는 하나 이상의 인스트럭션을 저장할 수 있다. 그리고, 영상 처리부(220)에 포함되는 적어도 하나의 프로세서(미도시)는 영상 처리부(220)의 내부 메모리(미도시)에 저장된 하나 이상의 인스트럭션 중 적어도 하나를 실행하여, 소정 동작을 실행할 수 있다.
구체적으로, 영상 처리부(220)는 엑스선 영상 처리 장치(200)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 엑스선 영상 처리 장치(200)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 엑스선 영상 처리 장치(200)의 제어를 위한 제어 프로그램 및/또는 복수개의 인스트럭션이 저장된 ROM(미도시) 및 적어도 하나의 프로세서 (Processor)(미도시)를 포함할 수 있다. 프로세서(미도시)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 프로세서(미도시)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(미도시)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 영상 처리부(220)에 포함되는 적어도 하나의 프로세서(미도시)가 엑스선 영상 처리 장치(200)에서 수행되는 동작들을 제어할 수 있으며, 소정 동작이 수행되도록 엑스선 영상 처리 장치(200) 내에 포함되는 다른 구성들을 제어할 수 있다. 따라서, 영상 처리부(220)가 소정 동작들이 수행되도록 제어하는 것으로 설명하더라도, 영상 처리부(220)에 포함되는 적어도 하나의 프로세서(미도시)가 소정 동작들이 수행되도록 제어하는 것임은 자명하다 할 것이다.
엑스선 영상 처리 장치(200)의 상세한 구성은 이하에서 도 3 내지 4를 참조하여 설명하도록 한다.
도 3은 본 개시의 실시예에 따른 엑스선 영상 처리 장치를 나타내는 다른 블록도이다. 도 3에 도시된 엑스선 영상 처리 장치(300)에 포함되는 구성들에 있어서, 도 2에 도시된 엑스선 영상 처리 장치(200)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 도 3에 도시된 엑스선 영상 처리 장치(300)를 설명하는데 있어서, 도 2에서와 중복되는 상세 설명은 생략한다.
엑스선 영상 처리 장치(300)에 있어서, 데이터 획득부(210)는 3차원 카메라(305), 제어부(320) 및 엑스선 영상 획득부(301)를 포함할 수 있다. 또한, 도 3에 도시된 제어부(320), 엑스선 조사부(311) 및 엑스선 디텍터(313)는 각각 도 1에 도시된 제어부(120), 엑스선 조사부(110) 및 엑스선 디텍터(195)에 동일 대응되므로, 도 1에서와 중복되는 설명은 생략한다.
또한, 엑스선 영상 처리 장치(300)는 엑스선 영상 처리 장치(200)에 비하여, 디스플레이(340)를 더 포함할 수 있다.
제어부(320)는 엑스선 영상 획득부(301)가 제1 엑스선 영상을 획득하기 위해 수행하는 동작들을 제어할 수 있다. 또한, 제어부(320)는 3차원 정보를 획득하도록 3차원 카메라(305)를 제어할 수 있다.
구체적으로, 엑스선 조사부(311) 및 엑스선 디텍터(313)는 제어부(320)의 제어에 따라서 제1 엑스선 영상을 생성하기 위한 엑스선 조사 및 엑스선 감지 동작을 수행할 수 있다. 또한, 제어부(320)는 엑스선 디텍터(313)에서의 엑스선 감지 결과에 근거하여 엑스선 영상을 생성할 수 있다. 구체적으로, 제어부(320)는 엑스선 디텍터(313)에서 감지된 엑스선을 전기적인 신호로 변환한다. 그리고, 변환된 신호에 근거하여 엑스선 영상을 생성할 수 있다.
또한, 제어부(320)는 하나 이상의 인스트럭션을 수행하는 프로세서(미도시)를 적어도 하나 포함할 수 있다. 여기서, 적어도 하나의 프로세서 각각은 하나 이상의 인스트럭션 중 적어도 하나를 실행시킴으로써, 소정 동작을 실행할 수 있다.
또한, 제어부(320)는 내부 메모리(미도시) 및 저장된 적어도 하나의 프로그램을 실행하는 적어도 하나의 프로세서(processor)(미도시)를 포함할 수 있다. 구체적으로, 제어부(320)의 내부 메모리(미도시)는 하나 이상의 인스트럭션을 저장할 수 있다. 그리고, 제어부(320)에 포함되는 적어도 하나의 프로세서(미도시)는 제어부(320)의 내부 메모리(미도시)에 저장된 하나 이상의 인스트럭션 중 적어도 하나를 실행하여, 소정 동작을 실행할 수 있다.
구체적으로, 제어부(320)는 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 데이터 획득부(210)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 RAM(미도시), 데이터 획득부(210)의 제어를 위한 제어 프로그램 및/또는 복수개의 인스트럭션이 저장된 ROM(미도시) 및 적어도 하나의 프로세서 (Processor)(미도시)를 포함할 수 있다. 프로세서(미도시)는 비디오에 대응되는 그래픽 처리를 위한 그래픽 프로세서(Graphic Processing Unit, 미도시)를 포함할 수 있다. 프로세서(미도시)는 코어(core, 미도시)와 GPU(미도시)를 통합한 SoC(System On Chip)로 구현될 수 있다. 프로세서(미도시)는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다.
또한, 제어부(320)는 엑스선 획득부(210)에서 수행되는 제1 엑스선 영상 및/또는 3차원 정보를 획득하기 위한 동작들 이외에 엑스선 영상 처리 장치(300)의 동작을 전반적으로 제어할 수도 있다. 구체적으로, 제어부(320)에 포함되는 적어도 하나의 프로세서(미도시)가 엑스선 영상 처리 장치(300)에서 수행되는 동작들을 제어할 수 있으며, 소정 동작이 수행되도록 엑스선 영상 처리 장치(300) 내에 포함되는 다른 구성들을 제어할 수 있다.
엑스선 영상 획득부(301)는 제어부(320)의 제어에 따라서 엑스선 촬영을 수행하여 제1 엑스선 영상을 직접 획득할 수 있다.
3차원 카메라(305)는 3차원 깊이 측정이 가능한 카메라 기술에 따라서, 3차원 깊이를 측정할 수 있는 이미징 장치가 될 수 있다.
구체적으로, 3차원 카메라(305)는 스테레오 카메라, 깊이 카메라, 또는 3차원 하이브리드 카메라로 형성될 수 있다. 이하에서는, 3차원 카메라(305)가 스테레오 카메라로 형성되는 경우를 예로 들어 설명한다. 3차원 카메라(305)는 좌안 영상 및 우안 영상을 각각 획득하기 위한 복수의 카메라를 포함할 수 있다. 구체적으로, 3차원 카메라(305)는 좌안 영상을 획득하기 위한 L 카메라(미도시) 및 우안 영상을 획득하기 위한 R 카메라(미도시)를 포함할 수 있다. 3차원 카메라(305)는 제어부(320)의 제어에 따라서, 피사체인 대상체(312)를 촬영하여 좌안 영상에 대응되는 좌안 데이터 및 우안 영상에 대응되는 우안 데이터를 획득할 수 있다.
제어부(320)는 3차원 카메라(305)에서 획득된 좌안 데이터 및 우안 데이터를 이용하여, 대상체(312)에 대한 3차원 정보(예를 들어, 대상체(312)에 대한 깊이 정보 등)를 획득할 수 있다.
3차원 카메라(305)의 구체적인 구성 및 3차원 영상 촬영 동작은 이하에서 도 9 및 도 10을 참조하여 상세히 설명한다.
엑스선 영상 획득부(301)는 엑스선 조사부(311) 및 엑스선 디텍터(313)를 포함할 수 있다. 여기서, 대상체(312)는 환자의 신체 일부가 될 수 있다. 예를 들어, 환자의 신체 부위 중 근골격계에 대한 진단이 필요한 경우, 엑스선 조사의 대상이 되는 대상체는 환자의 어깨, 팔, 또는 다리 등이 될 수 있을 것이다.
또한, 도 3에 도시된 엑스선 조사부(311) 및 엑스선 디텍터(313)는 각각 도 1에 도시된 엑스선 조사부(110) 및 엑스선 디텍터(195)에 동일 대응되므로, 도 1에서와 중복되는 설명은 생략한다.
엑스선 조사부(311)는 엑스선을 발생시켜 대상체(312)로 조사한다. 구체적으로, 엑스선 조사부(311)는 내부적으로 포함되는 진공관(미도시)의 음극 및 양극 사이에 고전압을 인가하여 엑스선을 발생시킬 수 있다. 엑스선 조사부(311)에서 출력되는 엑스선의 강도(intensity)는 진공관(미도시)에 인가되는 관전압, 관전류, 및 진공관(미도시)의 제품 사양(예를 들어, 필라멘트의 크기, 집속 전극의 크기, 양극과 음극 사이의 거리 등)에 따라서 달라질 수 있다. 또한, 엑스선 생성을 위해 인가되는 관전압 및 진공관(미도시)의 제품 사양은 설정 값 또는 정해진 값을 가지므로, 엑스선 조사부(311)에서 출력되는 엑스선의 강도는 알려진 값 또는 측정 가능한 값이 된다.
본 개시의 실시예에서, 엑스선 조사부(311)는 단일 에너지 대역을 갖는 엑스선을 대상체(312)로 조사할 수 있다.
엑스선 디텍터(313)는 엑스선 조사부(311)로부터 조사되어 대상체를 투과한 엑스선을 검출한다. 구체적으로, 엑스선 조사부(311)에서 출력된 엑스선은 대상체(312)를 통과하면서 감쇠될 수 있다.
엑스선 디텍터(313)는 감쇠된 엑스선을 감지한다. 그리고, 제어부(320)는 엑스선 디텍터(313)의 엑스선 감지 결과에 근거하여, 제1 엑스선 영상을 생성할 수 있다. 구체적으로, 제어부(320)는 엑스선 디텍터(313)에서 감지된 엑스선의 광자량에 근거하여 대상체를 통과한 엑스선의 강도를 획득하고, 획득된 엑스선의 강도에 근거하여 제1 엑스선 영상을 생성할 수 있다.
또한, 제어부(320)는 엑스선 디텍터(313)의 감지 결과에 근거하여 제1 엑스선 영상을 생성하는 동작을 수행하지 않고, 영상 처리부(220)가 제1 엑스선 영상을 생성하도록 제어할 수 있다. 구체적으로, 제어부(320)는 엑스선 디텍터(313)에서 감지된 엑스선을 전기 신호로 변환한 변환 신호를 영상 처리부(220)로 전송하여 영상 처리부(220)가 엑스선 영상을 생성하도록 제어할 수 있다.
구체적으로, 영상 처리부(220)는 제어부(320)의 제어에 따라서, 엑스선 디텍터(313)에서의 엑스선 감지 결과에 근거하여 제1 엑스선 영상을 생성할 수 있다. 구체적으로, 엑스선 디텍터(313)에서 감지된 엑스선은 전기적인 신호로 변환된다. 그리고, 영상 처리부(220)는 변환된 신호에 근거하여 제1 엑스선 영상을 생성할 수 있다.
여기서, 엑스선 영상의 화소 값은, 엑스선 디텍터(313)에서 감지된 엑스선을 전기적으로 변환한 신호의 크기에 대응될 수 있다. 또한, 영상 처리부(220)는 엑스선 디텍터(313)에서의 엑스선 감지 결과에 따라서 생성된 신호를 전처리(pre-processing)할 수 있으며, 엑스선 영상의 화질을 개선하기 위한 후처리(post-processing)할 수 있다. 또한, 영상 처리부(220)에서 수행되는 영상 처리의 종류 및 순서는 달라질 수 있다.
또한, 영상 처리부(220)는 제어부(320) 내에 포함되는 형태로 구현될 수 있다. 구체적으로, 제어부(320)에 포함되는 적어도 하나의 프로세서(미도시) 중 어느 하나는 영상 처리부(image processor)(220)가 될 수 있다.
또한, 제어부(320)에 포함되는 적어도 하나의 프로세서(미도시) 중 적어도 하나는 전술한 영상 처리부(220)에서 수행하는 동작들(예를 들어, 제1 정보 및 제2 정보의 획득 동작 등)을 수행할 수 있다.
도 3 및 이하에서 설명한 도면들을 참조하여 설명한 본 개시의 실시예에서는, 제1 엑스선 영상을 처리하여, 제1 정보, 제2 정보 및/또는 제3 정보를 획득하는 동작, 산란 보정 동작, 및 후처리 동작 등이 영상 처리부(220)에서 수행되는 경우를 예로 들어서 설명한다.
디스플레이(340)는 제어부(320)의 제어에 따라서 소정 화면을 디스플레이 한다. 구체적으로, 디스플레이(340)는 제1 엑스선 영상, 제1 정보, 및 제2 정보 및 제3 정보 중 적어도 하나를 디스플레이 할 수 있다. 또한, 디스플레이(340)는 제1 엑스선 영상, 제1 정보, 및 제2 정보 및 제3 정보 중 적어도 하나를 포함하는 사용자 인터페이스 화면을 디스플레이 할 수 있다.
또한, 디스플레이(340)는 영상 처리부(220)에서 수행되는 영상 처리의 중간 생성물 또는 최종 결과를 포함하는 화면을 디스플레이할 수 있다.
도 4는 본 개시의 실시예에 따른 엑스선 영상 처리 장치를 나타내는 다른 블록도이다. 도 4에 도시된 엑스선 영상 처리 장치(400)에 포함되는 구성들에 있어서, 도 2 및 도 3에 도시된 엑스선 영상 처리 장치(200, 300)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 장치(400)를 설명하는데 있어서, 도 2 내지 도 3에서와 중복되는 상세 설명은 생략한다.
엑스선 영상 처리 장치(400)는 엑스선 영상 처리 장치(200)에 비하여, 사용자 인터페이스(460), 제어부(420), 메모리(440), 디스플레이(340) 및 통신부(415) 중 적어도 하나를 더 포함할 수 있다. 또한, 엑스선 영상 처리 장치(400)는 신경망 프로세서(430)를 더 포함할 수 있다.
여기서, 제어부(420)는 도 3에서 설명한 제어부(320)와 동일 동일 대응될 수 있다.
구체적으로, 제어부(420)는 엑스선 영상 처리 장치(400)의 동작을 전반적으로 제어할 수 있다. 구체적으로, 제어부(320)에 포함되는 적어도 하나의 프로세서(미도시)가 엑스선 영상 처리 장치(400)에서 수행되는 동작들을 제어할 수 있으며, 소정 동작이 수행되도록 엑스선 영상 처리 장치(400) 내에 포함되는 다른 구성들을 제어할 수 있다.
통신부(415)는 유무선의 통신 네트워크를 통하여 전자 장치(미도시)와 데이터를 송수신할 수 있다. 구체적으로, 통신부(415)는 제어부(420)의 제어에 따라서 데이터의 송수신을 수행할 수 있다. 여기서, 통신부(415)는 도 1에 도시된 통신부(140)에 대응될 수 있다. 또한, 통신부(415)와 유무선의 통신 네트워크로 연결되는 전자 장치(미도시)는 도 1에 도시된 서버(151), 의료 장치(152), 또는 휴대용 단말(153)이 될 수 있다. 또한, 전자 장치(미도시)는 엑스선 영상 처리 장치(300)와 독립적으로 형성되는 의료 영상 장치, 예를 들어, 도 1의 엑스선 장치 등이 될 수 있다.
구체적으로, 통신부(415)는 외부의 전자 장치(미도시)가 의료 영상 장치인 경우, 의료 영상 장치에서 획득된 실제 의료 영상, 예를 들어, 제1 엑스선 영상을 수신할 수 있다. 또한, 통신부(415)는 외부의 전자 장치(미도시)로 적어도 하나의 의료 영상, 및/또는 의료 영상을 분석 또는 진단한 결과를 포함하는 데이터를 전송할 수 있다. 예를 들어, 영상 처리부(220)가 제2 정보 및 제3 정보를 획득한 경우, 제어부(420)는 통신부(415)를 통하여 획득된 정보들을 외부의 전자 장치(미도시)로 전송되도록 제어할 수 있다.
또한, 3차원 카메라(미도시)가 엑스선 영상 처리 장치(400)와 별도의 장치로 형성되는 경우, 통신부(415)는 3차원 카메라(미도시)로부터 대상체(312)를 촬영하여 획득한 데이터, 예를 들어, 좌안 데이터 및 우안 데이터를 수신할 수 있다. 이 경우, 제어부(420)는 통신부(415)로부터 전송되는 좌안 데이터 및 우안 데이터에 근거하여 대상체에 대한 3차원 정보를 획득할 수 있다.
메모리(440)는 엑스선 영상 처리 장치(300)가 동작하기 위해서 필요한 적어도 하나의 프로그램 또는 적어도 하나의 프로그램이 실행되기 위해서 필요한 적어도 하나의 명령어를 포함할 수 있다. 또한, 메모리(440)는 전술한 동작들을 수행하기 위한 적어도 하나의 프로세서들을 포함할 수 있다.
또한, 메모리(440)는 엑스선 영상, 엑스선 영상과 관련된 정보, 환자에 대한 정보, 대상체에 대한 정보 및 피검사자에 대한 정보 중 적어도 하나를 저장할 수 있다. 또한, 메모리(440)는 영상 처리부(220)에서 생성한 정보, 데이터 및 영상 중 적어도 하나를 저장할 수 있다. 또한, 메모리(440)는 외부의 전자 장치(미도시)로부터 수신되는 영상, 데이터 및 정보 중 적어도 하나를 저장할 수 있을 것이다.
디스플레이(340)는 의료 영상, 사용자 인터페이스 화면, 사용자 정보, 영상 처리 정보 등을 디스플레이 할 수 있다. 구체적으로, 디스플레이(340)는 제어부(420)의 제어에 따라서 생성된 사용자 인터페이스 화면을 디스플레이 할 수 있다. 여기서, 사용자 인터페이스 화면은 엑스선 영상, 엑스선 영상과 관련된 정보, 및/또는 영상 처리부(220)에서 생성한 정보 등을 포함할 수 있다.
사용자 인터페이스(460)는 사용자로부터 소정 데이터 또는 소정 명령을 입력받을 수 있다. 사용자 인터페이스(460)는 도 1의 서브 유저 인터페이스(180) 및 입력부(181) 중 적어도 하나에 대응될 수 있다. 또한, 사용자 인터페이스(460)는 디스플레이(340)와 일체로 형성되는 터치 스크린으로 형성될 수 있다. 또 다른 예로, 사용자 인터페이스(460)는 포인터, 마우스, 키보드 등의 사용자 입력 장치를 포함할 수 있다.
또한, 본 개시의 실시예에서, 엑스선 영상 처리 장치(400)는 신경망을 통한 연산을 수행하여, 그에 대한 결과를 획득할 수 있다. 예를 들어, 엑스선 영상 처리 장치(400)는 신경망으로 제1 정보 및 제1 엑스선 영상을 입력하고, 신경망 연산을 수행하여, 대상체를 형성하는 복수의 물질들 중 제1 물질을 분리하고 그에 대한 입체적 구조를 나타내는 3차원 영상을 생성할 수 있다. 또한, 엑스선 영상 처리 장치(400)는 신경망으로 제1 정보 및 제1 엑스선 영상을 입력하고, 신경망 연산을 수행하여, 대상체를 형성하는 복수의 물질들 중 제1 물질 및 제2 물질을 각각 분리하고 제1 물질 및 제2 물질 각각의 입체적 구조를 나타내는 3차원 영상을 생성할 수 있다.
또 다른 예로, 엑스선 영상 처리 장치(400)는 신경망으로 제1 엑스선 영상을 입력하고, 신경망 연산을 수행하여, 제1 엑스선 영상을 분석하여 제1 물질, 예를 들어, 연조직이 이미징된 제1 부분 영상 및 제2 물질, 예를 들어, 뼈가 이미징된 제2 부분 영상을 획득할 수 있다.
구체적으로, 신경망(Neural Network)은 인공지능(Artificial Intelligence, AI) 기술에 따라 기계학습을 수행하는 인공지능 시스템을 통하여, 입력 데이터를 이용한 분석 또는 예측 연산을 수행할 수 있다.
여기서, 신경망(Neural Network)은 학습 데이터를 학습(training)하여 신경망 내부의 가중치 값들을 최적화하여 설정할 수 있다. 그리고, 신경망은 획득하고자 하는 결과 값을 도출하기 위해서, 입력된 데이터를 스스로 학습(learning)한다.
구체적으로, 신경망은 심층 신경망(DNN: Deep Neural Network)이 될 수 있다. 또한, 심층 신경망(DNN) 연산은 컨볼루션 신경망(CNN: Convolution Neural Network) 연산 등을 포함할 수 있다. 구체적으로, 예시된 신경망을 통하여 데이터 인식 모델을 구현하고, 구현된 데이터 인식 모델을 학습 데이터를 이용하여 학습(training)시킬 수 있다. 그리고, 학습된 데이터 인식 모델을 이용하여 입력되는 데이터, 예를 들어, 엑스선 영상을 분석 또는 분류하여, 엑스선 영상에 포함되는 특정 영역(예를 들어, 대상체를 형성하는 복수개의 물질들 중 제1 물질로 형성된 영역)을 출력할 수 있다.
또한, 신경망을 통한 연산은 영상 처리부(220)에서 수행될 수 있다. 구체적으로, 신경망을 통한 연산은 영상 처리부(220)에 포함되는 적어도 하나의 프로세서 중 적어도 하나를 통하여 수행될 수 있다. 또한, 신경망을 통한 연산은 제어부(420)에서 수행될 수도 있다. 또한, 신경망을 통한 연산은, 별도의 프로세서인 신경망 프로세서(430)를 통하여 수행될 수도 있다. 도 4에서는, 영상 처리부(220) 또는 제어부(420)와 구별되는 별도의 프로세서인 신경망 프로세서(430)가 신경망을 통한 연산을 수행하는 경우를 예로 들어 도시하였다.
구체적으로, 신경망 프로세서(430)는 신경망(Neural Network)을 기반으로 하는 연산을 수행할 수 있다. 구체적으로, 심층 신경망(DNN) 연산은 컨볼루션 신경망(CNN: Convolution Neural Network) 연산 등을 포함할 수 있다.
제어부(420), 영상 처리부(220) 또는 신경망 프로세서(430)에서 수행되는 신경망 연산은 이하에서 도 19를 참조하여 상세히 설명한다.
도 5는 본 개시의 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다. 또한, 도 5는 도 2 내지 도 4를 참조하여 설명한 본 개시의 실시예에 따른 엑스선 영상 처리 장치(200, 300 또는 400)에서 수행되는 동작들을 설명하기 위한 흐름도라 할 수도 있다.
본 개시의 실시예에 따른 엑스선 영상 처리 방법(500)은 도 2 내지 도 4를 참조하여 설명한 본 개시의 실시예에 따른 엑스선 영상 처리 장치(200, 300 또는 400)를 통하여 수행될 수 있다. 따라서, 엑스선 영상 처리 방법(500)의 각 단계 동작은 엑스선 영상 처리 장치(200, 300 또는 400)의 각 구성을 통하여 수행될 수 있으며, 엑스선 영상 처리 방법(500)은 전술한 엑스선 영상 처리 장치(200, 300 또는 400)와 동일한 구성상 특징을 포함할 수 있다. 따라서, 엑스선 영상 처리 방법(500)을 설명하는데 있어서, 도 1 내지 도 4에서와 중복되는 설명은 생략한다.
이하에서는, 도 3에서 설명한 엑스선 영상 처리 장치(300)를 참조하여, 엑스선 영상 처리 방법(500)을 상세히 설명한다.
도 5를 참조하면, 엑스선 영상 처리 방법(500)은 제1 엑스선 영상을 획득한다(S510). 여기서, 제1 엑스선 영상은 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 엑스선 영상이다. S510 단계의 동작은 제어부(320)의 제어에 따라서 데이터 획득부(210)에서 수행될 수 있다.
대상체를 이미징한 엑스선 영상(예를 들어, '제1 엑스선 영상'으로 칭할 수 있음)은, 대상체를 투과한 엑스선의 광자량에 근거하여 대상체의 내부를 이미징한 의료 영상이다. 대상체로 엑스선을 조사하고, 대상체를 투과한 엑스선의 강도는 이하에서 도 8을 참조하여 상세히 설명한다.
도 8은 본 개시의 실시예에서 엑스선 영상의 획득 동작을 설명하기 위한 도면이다. 구체적으로, 도 8은 엑스선 영상 획득부(301)를 통하여 엑스선 촬영을 수행하는 동작을 설명하기 위한 도면이다. 도 8에 있어서 도 3에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 8의 설명에 있어서 도 3에서 설명한 구성과 중복되는 설명은 생략한다.
환자의 소정 신체 부위, 예를 들어, 근골격계에서의 질병 유무를 판단하기 위해서, 환자의 팔에 대한 엑스선 영상을 촬영할 수 있다. 도 8에서는, 전술한 예와 같이, 대상체가 환자의 팔인 경우를 예로 들어 도시 및 설명하였다.
대상체는 복수의 서로 다른 물질들로 형성될 수 있다. 구체적으로, 팔은 팔 뼈와 팔 뼈를 둘러싸는 연조직에 의해서 형성될 수 있다. 이하에서는, 제1 물질이 연조직이고, 제2 물질이 뼈인 경우를 예로 들어 설명하도록 한다. 그리고, 이하에서 설명될 수식들에 있어서, 'S'는 연조직을 나타내고, 'B'는 뼈를 나타낸다.
도 8을 참조하면, 제1 엑스선 영상의 획득을 위하여 대상체(810)로 엑스선(801)이 조사된다. 구체적으로, 엑스선 조사부(311)는 대상체(810)를 향하여 강도 Io 를 갖는 엑스선을 출력한다. 엑스선 디텍터(313)는 대상체(810)를 통과한 엑스선인 강도 I를 갖는 엑스선을 감지한다. 그리고, 제1 엑스선 영상은 엑스선 디텍터(313)에서 감지된 엑스선에 근거하여 생성될 수 있다.
도 8에 도시된 대상체(810)는 팔의 단면으로, 엑스선이 조사되는 방향으로의 대상체의 수직 단면을 나타낼 수 있다. 구체적으로, 대상체(810)는 뼈(812) 및 뼈를 둘러싸는 연조직(811)으로 형성될 수 있다.
도 8을 참조하면, 그래프(850)는 엑스선 디텍터(313)에서 감지된 엑스선의 강도를 나타내는 그래프이다. 구체적으로, 그래프(850)의 X 축은 대상체의 수직 단면에서의 위치를 나타내며, Y 축은 엑스선 디텍터(313)에서 감지된 엑스선의 강도(intensity)를 나타낸다. 또한, 그래프(850)에서의 Y 축은 대상체를 투과한 엑스선의 강도 I를 나타낼 수 있다.
대상체를 향하여 조사된 엑스선은, 대상체에 일부는 흡수되고 일부는 투과된다. 이러한 엑스선의 투과 정도는 대상체 내의 물질의 종류에 따라서 다르게 나타난다.
그래프(850)을 참조하면, 대상체를 투과하지 않은 엑스선의 강도는 I1 값을 가질 수 있다. 여기서, I1 값은 엑스선 조사부(311)에서 조사된 엑스선의 강도 Io 와 동일한 값이 될 수 있다. 대상체(810)의 경계(831)를 기점으로, 대상체를 투과한 엑스선의 강도는 감소한다. 예를 들어, 대상체(810)의 경계(831)를 기점으로, 엑스선 디텍터(313)에서 감지된 엑스선의 강도는 I1 값에서 I2 값으로 감소한다. 그래프(850) 상에서, 대상체(810)의 경계(831)에 대응되는 위치는 P1로 표시하였다. 이러한 엑스선의 강도 감소는, 엑스선이 대상체를 투과하면서 대상체로 일부 흡수되면서 발생하게 된다. 이러한 엑스선의 흡수 특성은 엑스선의 감쇠 특성이라고도 할 수 있다.
전술한 바와 같이, 엑스선의 흡수 특성은 대상체(810)를 형성하는 내부 물질에 따라서 달라질 수 있다. 예를 들어, 엑스선이 연조직을 통과할 때에 비하여, 엑스선이 뼈를 통과할 때 엑스선 감쇠가 더 크게 이뤄진다. 또한, 엑스선이 투과하는 대상체의 두께가 커질수록, 엑스선의 감쇠가 커질 수 있다. 또한, 내부 물질이 변화되면, 엑스선의 흡수 또는 감쇠 정도도 변화되게 된다.
도 8을 참조하면, 대상체(810)의 (1) 영역(821)은 연조직만이 존재하는 영역이다. 그리고, 대상체(810)의 (2) 영역(822) 및 (3) 영역(823)은 연조직과 뼈가 중첩적으로 존재하여, 엑스선 조사부(311)에서 출력된 엑스선(803)이 뼈와 연조직을 모두 투과하는 영역이다. 그리고, 대상체(810)의 (4) 영역(824)은 연조직만이 존재하는 영역이다.
대상체(810)의 (1) 영역(821)을 투과하는 엑스선(802)은 그래프(850)의 P1 내지 P2 구간에서와 같은 강도를 가질 수 있다. 그리고, 연조직(811)과 뼈(812)의 경계(832)에서 엑스선의 흡수 또는 감쇠 정도는 급격히 변화한다. 그래프(850) 상에서, 연조직(811)과 뼈(812)의 경계(832)에 대응되는 위치는 P2로 표시하였다. 그에 따라서, 뼈(812)를 투과하여 감지된 엑스선의 강도는 P2 내지 P3 구간에서와 같은 강도를 가질 수 있다.
또한, 뼈(812)와 연조직(811)의 경계(833)에서 엑스선의 흡수 또는 감쇠 정도는 급격히 변화한다. 그래프(850) 상에서, 뼈(812)와 연조직(811)의 경계(833)에 대응되는 위치는 P3로 표시하였다. 그에 따라서, 연조직(811)을 투과하여 감지된 엑스선의 강도는 P3 내지 P4 구간에서와 같은 강도를 가질 수 있다.
구체적으로, 엑스선 흡수 특성은 이하와 같은 [수학식 1]로 표현될 수 있다.
[수학식 1]
Figure pat00002
여기서, I는 대상체를 투과하여 감지된 엑스선의 강도(intensity), Io는 대상체로 조사되는 엑스선의 강도(즉, 엑스선 조사부(311)에서 생성되어 대상체(312)를 향하여 출력된 엑스선의 강도),
Figure pat00003
는 에너지 대역 E 를 갖는 엑스선이 j 물질을 투과하면서 감쇠되는 정도를 나타내는 선형 감쇠계수(linear attenuation coefficient)를 나타낸다. 선형 감쇠 계수는 물질의 종류에 따라서 달라질 수 있다. 예를 들어, 연조직과 뼈 각각의 선형 감쇠계수는 서로 다른 값을 가진다. 그리고, tj 는 j 물질의 두께(thickness)를 나타낸다. 구체적으로, tj 엑스선이 대상체를 투과하는 경로인 투과 두께(또는, 투사 두께)를 의미할 수 있다. 즉, 투과 두께는 대상체 내에서 엑스선이 투과하는 경로의 길이를 의미할 수 있다. [수학식 1]에 따르면, 투과 두께가 길어질수록 엑스선의 감쇠 정도는 커진다.
여기서, I와 Io 각각은 엑스선 촬영 시 대상체로 출력된 엑스선 및 대상체를 투과하여 감지된 엑스선을 나타내므로, 엑스선 장치(100)에서의 엑스선 촬영 시의 설정 및 엑스선 감지 결과로 바로 알 수 있는 값이 된다.
구체적으로, I는 엑스선 디텍터(313)에서 감지된 엑스선 광자량을 전기적으로 변환한 신호값이 될 수 있다. 예를 들어, I는 엑스선 디텍터(313)에서 감지된 엑스선 광자량을 전기적으로 변환하여 생성된 전압값이 될 수 있다. 또는, I는 엑스선 디텍터(313)에서 감지된 엑스선 광자량을 전기적으로 변환하여 생성된 전류값이 될 수 있다.
또한, I와 Io는 엑스선 영상 내에서 대응되는 픽셀 값을 이용하여 획득할 수 있다. 즉, I 는 엑스선 영상에서의 지정된 영역의 화소 값이 될 수 있고, Io는 출력된 엑스선에 대응되는 화소 값, 즉, 엑스선 영상에서 대상체가 존재하지 않는 영역을 이미징한 화소 값에 대응될 수 있다. 또한, 엑스선 영상의 화소 값은 엑스선 디텍터(예를 들어, 도 3의 313)에서 감지된 엑스선 광자량에 대응되는 값으로 표현될 수 있다. 예를 들어, 엑스선이 뼈를 통과하면 엑스선의 감쇠가 커서 뼈를 통과한 엑스선의 광자량이 작다. 또 다른 예로, 엑스선이 연조직을 통과하면 엑스선의 감쇠가 뼈를 통과한 경우보다 작다. 그러므로, 엑스선 영상 내의 화소 값을 이용하여, 대응되는 엑스선의 강도(intensity)를 구할 수도 있을 것이다.
본 개시의 실시예에 있어서, 연조직만이 이미징된 제1 부분 영역은 (1) 영역(821)에 대응될 수 있으며, 연조직과 뼈가 중첩적으로 이미징되는 제2 부분 영역은 (2) 영역(822)에 대응될 수 있다.
또한, [수학식 1]은 이하의 [수학식 2]와 같이 변형될 수 있다.
[수학식 2]
Figure pat00004
또한, 엑스선이 3차원 공간 상에 존재하는 대상체(예를 들어, 환자의 특정 신체 부위)를 통과할 때, 엑스선의 감쇠의 정도는 공간 상에 존재하는 물질의 밀도에 따라서 비례하게 되므로,
Figure pat00005
Figure pat00006
로 표현될 수 있다. 여기서,
Figure pat00007
는 질량 감쇠 계수 (mass attenuation coefficient)를 나타내고,
Figure pat00008
는 j 물질의 밀도 값이 된다. 이하에서는, 질량 감쇠 계수를 간단히 '감쇠 계수'라 칭하도록 하겠다. 즉, 엑스선이 3차원 구조를 갖는 대상체를 통과할 때, 엑스선의 감쇠의 정도는 j 물질의 감쇠 계수와 j 물질의 밀도를 곱한 값으로 표현될 수 있다. 그에 따라서, [수학식 1]은 이하의 [수학식 3]와 같이 변형될 수 있다.
[수학식 3]
Figure pat00009
[수학식 3]에 있어서,
Figure pat00010
와 tj 를 곱한 값인
Figure pat00011
의 시그마(sigma) 값을 이용하여 표현된다. 이것은, 엑스선이 중첩적으로 존재하는 서로 다른 복수개의 물질을 투과할 때, 복수개의 물질들 각각에 대한
Figure pat00012
값들을 합산한 값의 역 지수승으로 엑스선이 감쇠됨을 나타낸다.
본 개시의 실시예에서, 엑스선의 흡수 특성은 이하의 S540 단계에서의 물질 분리에 이용될 수 있다.
또한, 엑스선 영상 처리 방법(500)은 3차원 정보를 획득한다(S520). 여기서, 3차원 정보는 3차원 카메라로 대상체를 촬영하여 획득된 정보로, 대상체의 입체적 구조에 대한 정보를 포함할 수 있다. 구체적으로, 3차원 정보는, 대상체에 대한 깊이(depth) 정보를 포함할 수 있다. 구체적으로, 깊이(depth)는 3차원 카메라로부터 대상체가 얼마나 떨어져 있는지를 나타내는 거리값에 대응될 수 있다. S520 단계의 동작은 제어부(320)의 제어에 따라서 데이터 획득부(210)에서 수행될 수 있다. 3차원 정보는 이하에서 도 9를 참조하여, 상세히 설명한다.
도 9는 본 개시의 실시예에서 3차원 정보의 획득 동작을 설명하기 위한 도면이다. 또한, 도 9에서는, 스테레오 카메라의 촬영 대상이 되는 피사체가 도 8에서 도시한 대상체(810)은 환자의 팔인 경우를 예로 들어 도시하였다.
3차원 카메라(305)는 스테레오 카메라로 형성될 수 있다. 도 9에서는, 3차원 카메라 (305)가 스테레오 카메라인 경우를 예로 들어 도시하였다. 도 9를 참조하면, 스테레오 카메라(305)는 좌안 영상을 획득하기 위한 좌안 카메라(911) 및 우안 영상을 획득하기 위한 우안 카메라(912)를 포함한다. 또한, 엑스선 조사부(311)에서 엑스선을 출력하는 위치가 922 위치인 경우, 엑스선 조사부(311)의 엑스선 조사 위치(922)의 전방 좌우 양측에 좌안 카메라(911) 및 우안 카메라(912)가 위치할 수 있다. 또한, 도 9에 도시된 스테레오 카메라는 3차원 카메라(305)에 적용 가능한 일 예시에 불과하고, 더 정확한 깊이 정보의 계산을 위해 3대 이상의 카메라가 사용되어 다시점(multi-view) 영상을 획득하는 것도 가능하다.
좌안 카메라(911)와 우안 카메라(912) 사이의 거리 및 좌안 카메라(911)를 통하여 이미징된 좌안 영상 내에서의 대상체의 일 지점(예를 들어, P1)과 우안 카메라(912)를 통하여 이미징된 우안 영상 내에서의 대상체의 일 지점(예를 들어, P1) 사이의 거리를 알면, 스테레오 카메라(305)로부터 대상체(810)의 표면까지의 거리인 깊이(depth) 값을 획득할 수 있다.
본 개시의 실시예에서, 3차원 정보는 좌안 카메라(911)와 우안 카메라(912) 각각을 통하여 획득된 영상인 좌안 영상 및 우안 영상을 포함할 수 있다. 그리고, 좌안 영상 및 우안 영상을 합하여 스테레오 영상이라 칭할 수 있다. 그리고, 스테레오 영상 내에서 대상체 내의 동일 지점 간의 거리 차이를 양안 시차라 할 수 있다. 또한, 3차원 정보는 좌안 카메라(911)에서 획득된 러 데이터(raw data) 및 우안 카메라(912)에서 획득된 러 데이터(raw data)를 포함할 수 있다. 여기서, 러 데이터는 카메라에 포함되는 이미징 센서에서 센싱된 전기적인 신호값들을 의미할 수 있다. 또한, 좌안 카메라(911)에서 획득된 러 데이터(raw data) 및 우안 카메라(912)에서 획득된 러 데이터(raw data)를 합하여 스테레오 데이터라 칭할 수 있다.
또한, 본 개시의 실시예에서, 3차원 카메라(305)에서의 좌안 카메라(911)와 우안 카메라(912) 사이의 거리인 카메라 간격은 알려진 값이 될 수 있다. 즉, 제어부(320)는 3차원 카메라(305)에서의 카메라 간격을 알고 있을 수 있다.
또한, 3차원 카메라(305)는 대상체(810)의 내부를 이미징할 수 없으며, 3차원 카메라(305)로부터 가까운 대상체 표면, 예를 들어, D1(x,y) 거리 전후에 존재하는 대상체 표면을 3차원적으로 이미징할 수 있다. 따라서, 3차원 카메라(305)는 대상체 표면의 깊이 값을 구할 수 있는 3차원 정보를 획득할 수 있다.
또한, 3차원 카메라(305)는 깊이 카메라(depth camera)(미도시)로 구현될 수 있다. 이 경우, 깊이 카메라(미도시)는 피사체의 깊이 정보 획득을 위한 적외선 센서(미도시)와 컬러 카메라(미도시)를 포함할 수 있다. 예를 들어, 두 대의 컬러 카메라를 엑스선 조사부(311)의 전방 좌우 양측에 설치하고 그 중간에 적외선 센서를 설치할 수 있다. 깊이 카메라는 TOF(Time-of-Flight) 기술을 사용하여 깊이 정보를 획득할 수 있다. TOF 기술은 적외선 신호가 피사체에 반사되어 돌아오는 시간을 계산하여 거리를 측정하는 기술을 의미한다.
3차원 카메라(305)는 깊이 카메라로 형성되는 경우, 본 개시의 실시예에서 획득되는 3차원 정보는 적외선 센서(미도시)에서의 센싱 값을 포함할 수 있다. 또는, 3차원 정보는 적외선 센서(미도시)에서 획득된 거리값을 포함할 수 있다.
이하에서는, 3차원 정보가 스테레오 영상 및 스테레오 카메라(305)에서의 카메라 간격인 경우를 예로 들어 설명한다.
계속하여, 엑스선 영상 처리 방법(500)은 S520 단계에서 획득된 3차원 정보에 근거하여, 대상체의 두께에 대한 제1 정보를 획득한다(S530). S510 단계의 동작은 영상 처리부(220)에서 수행될 수 있다.
구체적으로, 영상 처리부(220)는 스테레오 영상에서 양안 시차 및 카메라 간격에 대하여 스테레오 매칭을 수행함으로써, 피사체의 깊이 정보를 계산할 수 있다. 여기서, 피사체의 깊이 정보는 스테레오 카메라(305)로부터 대상체 표면의 일 지점(예를 들어, P1)까지의 거리인 D1(x, y)가 될 수 있다. 또한, 스테레오 카메라(305)로부터 대상체가 위치하는 면, 예를 들어, 테이블(920) 면까지의 거리인 Do는 알려진 값 또는 측정 가능한 값이 된다. 그러므로, 대상체 표면 상의 P1 지점에 있어서, 대상체의 두께는 Do D1(x, y) = H(x, y)가 될 수 있다.
여기서, x, y는 대상체의 위치를 특정하기 위한 좌표로, 사용자 또는 엑스선 영상 처리 장치(300)의 설정에 따라서 달라질 수 있다. 도 9에서는, 테이블(920) 면(예를 들어, 930 직선에 수직하는 면) 상의 위치를 특정하기 위한 좌표로, 테이블(920)의 선이 x축이 되고 테이블 면 상에서 920 선에 수직한 방향(미도시)이 y축이 되는 경우를 예를 들어 도시하였다. 따라서, 도 9에 있어서, 원점인 (0,0)은 921 위치가 될 수 잇다.
전술한 바와 같이, 영상 처리부(220)는 3차원 카메라(305)에서 획득된 3차원 정보에 근거하며 대상체의 위치 별 총 두께를 획득할 수 있다. 예를 들어, 영상 처리부(220)는 P1 지점에서의 깊이 값인 D1(x,y) 값을 이용하여, P1 지점에서의 대상체의 두께인 H(x,y)를 계산할 수 있다. 여기서, H(x,y)는 (x,y) 좌표에 대응되는 대상체 표면 위치에 대응되는 대상체의 두께를 의미할 수 있다.
또한, 제1 정보에 포함되는 대상체의 두께는 도 8에 도시된 H(x,y) 값과 같은 수직 두께를 의미할 수 있다. 또는, 제1 정보는 대상체를 투과하는 엑스선의 투과 경로의 거리인 투과 두께를 의미할 수 있다. 이하에서는, 제1 정보에 포함되는 대상체의 두께에 대한 정보가, 대상체의 투과 두께인 경우를 예로 들어 설명 및 도시하도록 한다.
이하에서는, 도 10 및 도 11을 참조하여, 제1 정보를 획득하는 동작(S530)을 상세히 설명한다.
도 10은 3차원 정보에 근거하여 제1 정보를 획득하는 동작을 설명하기 일 위한 도면이다. 구체적으로, 도 10은 대상체의 투과 두께를 설명하기 위한 도면이다. 도 10에 있어서, 도 8 및 도 9에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 8 및 도 9에서와 중복되는 설명은 생략한다.
도 11은 3차원 정보에 근거하여 제1 정보를 획득하는 동작을 설명하기 위한 다른 도면이다. 도 11에 있어서, 도 5에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 따라서, 도 11에 도시된 동작들을 설명하는데 있어서, 도 5에서와 중복되는 설명은 생략한다.
도 11을 참조하면, 3차원 카메라(305)에서 획득된 정보인 대상체에 대한 3차원 정보에 근거하여, 대상체의 표면에 대한 깊이 정보를 포함하는 제1 정보를 획득할 수 있다(S530).
구체적으로, 도 11을 참조하면, 제1 정보를 획득하는 단계(S530)는 3차원 정보에 근거하여, 3차원 카메라(305)로부터 대상체 표면까지의 거리를 측정할 수 있다(S1110). 도 9에서 설명한 바와 같이, 피사체의 깊이 정보는 스테레오 카메라(305)로부터 대상체 표면의 일 지점(예를 들어, P1)까지의 거리인 D1(x, y)가 될 수 있다. 따라서, 3차원 정보에 근거하면, 3차원 카메라(305)로부터 대상체 표면까지의 거리를 측정할 수 있다.
그리고, 영상 처리부(220)는 3차원 카메라(305)로부터 대상체 표면까지의 거리에 근거하여, 대상체의 두께에 대한 제1 정보를 획득할 수 있다(S1120). 또한, 영상 처리부(220) 대상체 표면에 대응되는 모든 위치에서의 대상체의 두께인 H(x, y)를 획득할 수 있다. 즉, 도 9에서 설명한 x 축의 모든 위치에서의 대상체의 두께를 획득할 수 있다.
그리고, 영상 처리부(220)는 대상체의 두께인 H(x, y)를 이용하여, 엑스선의 투과 두께 PT(1040)를 획득할 수 있다(S1130).
PT(1040)를 획득하는 동작은 이하에서 상세히 설명한다.
도 10을 참조하면, 제1 정보는 대상체의 표면에 대한 깊이 정보인 1010 선에 대한 거리 값들을 획득할 수 있다. 즉, 3차원 카메라(305)는 카메라(305)의 촬영 면에 위치한 대상체의 표면을 이미징하므로, 3차원 카메라(305)에서 획득된 정보를 통하여는, 카메라(305)의 촬영 면이 아닌 대상체의 표면(구체적으로, 테이블(920) 쪽에 배치되는 대상체의 표면)에 대한 깊이 값은 획득할 수 없다.
또한, 도 10을 참조하면, 엑스선 디텍터(313)는 대상체를 투과한 엑스선을 감지한다. 엑스선 디텍터(313)는 테이블(920)과 평행한 평면 상에 위치할 수 있다. 구체적으로, 엑스선 디텍터(313)는 테이블(920)과 평행하나 테이블(920) 면과 다른 평면 상에 위치할 수 있다. 즉, 도 10에서는 대상체(810)로부터 D2 만큼 떨어진 거리에 엑스선 디텍터(313)가 배치되는 경우를 예로 들어 도시하였으나, 엑스선 디텍터(313)는 대상체(810)와 접하는 면에 배치될 수 있을 것이다. 엑스선 디텍터(313)가 대상체(810)와 접하는 면에 배치되는 경우, D2 = 0 값을 가질 수 있다. 또한, D2 값은 사용자 또는 엑스선 영상 획득부(301)의 설정 또는 제품 사양에 따라서 달라질 수 있다.
도 10을 참조하면, 엑스선 조사부(311)에서 대상체(810)를 투과할 때, 대상체(810)를 투과하는 거리를 투과 두께(구체적으로, 전술한 [수학식 1]에서의 tj 값)라 칭할 수 있다. 구체적으로, 엑스선 조사부(311)에서 922 위치에서 엑스선을 조사할 때, 대상체(810)의 P2 위치를 투과하는 엑스선(1021)의 투과 두께는 PT(1040)가 될 수 있다.
도 9를 참조하여 설명한 바와 같이, 영상 처리부(220)는 3차원 카메라를 이용하여 획득된 3차원 정보를 이용하여 대상체의 두께인 H(x,y)(1045)를 획득할 수 있다. 그리고, 이하의 [수학식 4]을 이용하면, 대상체의 두께 H(x,y)를 알면 투과 두께 PT(1040)을 구할 수 있다.
[수학식 4]
Figure pat00013
[수학식 4]에 있어서, PT는 투과 두께(1040)의 값을 의미하고, H는 전술한 제1 정보에 포함되는 대상체의 두께(1045)를 의미한다. 또한, A1은 엑스선의 조사 각도(1031)을 의미한다. (x,y) 좌표의 원점인 (0,0)(921)을 통과하는 엑스선의 투사 경로(930)에 있어서, A1은 0 값을 가질 수 있을 것이다. 또한, 각도 A1의 값은 알려진 값 또는 측정 가능한 값이 될 수 있다.
[수학식 4]에 있어서, H 값은 전술한 제1 정보를 통하여 획득할 수 있으며, A1 은 알려진 값 또는 측정 가능한 값을 가진다. 따라서, 제1 정보 및 [수학식 4]을 이용하면, 대상체에서의 투과 두께 PT (1040)를 구할 수 있다.
또한, 대상체가 제1 물질,예를 들어, 연조직 및 제2 물질, 예를 들어, 뼈로 형성된 경우, 투과 두께 PT = tj 는 뼈에서의 투과 두께
Figure pat00014
와 연조직에서의 투과 두께
Figure pat00015
의 합으로 표현될 수 있다.
즉, [수학식 5]에서와 같이 표현될 수 있다.
[수학식 5]
Figure pat00016
또한, 제1 물질이 연조직이고, 제2 물질이 뼈인 경우, [수학식 3]의 tj 값에 [수학식 5]를 대입하면, [수학식 6] 에서와 같이 변형될 수 있다.
[수학식 6]
Figure pat00017
또한, [수학식 5]는 [수학식 7]과 같이 변형될 수 있다.
[수학식 7]
Figure pat00018
그리고, [수학식 6]에 [수학식 7]을 대입하면, [수학식 6]은 이하의 [수학식 8]과 같이 변형될 수 있다.
[수학식 8]
Figure pat00019
[수학식 8]에 있어서, 연조직의 감쇠계수
Figure pat00020
, 연조직의 밀도인
Figure pat00021
, 뼈의 감쇠계수
Figure pat00022
, 및 뼈의 밀도
Figure pat00023
는 알려진 값이 될 수 있다. 그리고, I는 대상체를 투과하여 감지된 엑스선의 강도(intensity), Io는 대상체로 조사되는 엑스선의 강도(즉, 엑스선 조사부(311)에서 생성되어 대상체(312)를 향하여 출력된 엑스선의 강도)이므로, 알려진 값 또는 측정 가능한 값이 된다.
따라서, [수학식 8]에 있어서, 모르는 값은 뼈의 투과 두께와 PT 값인데, PT 값은 제1 정보를 통하여 획득 가능하다. 따라서, 엑스선의 흡수 특성을 나타내는 [수학식 8]에 제1 정보에서 획득한 PT 값을 대입하면, 뼈의 투과 두께인
Figure pat00024
를 획득할 수 있다.
또한, PT 값을 알고 있고, 뼈의 투과 두께인
Figure pat00025
를 구하고 나면, [수학식 7]을 이용하여 연조직의 투과 두께인
Figure pat00026
를 구할 수 있다.
또한, [수학식 5]를 뼈의 투과 두께를 나타나도록 변형하면, [수학식 8]은 연조직의 투과 두께인
Figure pat00027
에 대한 식으로 표현할 수 있다. 그에 따라서, 연조직의 투과 두께
Figure pat00028
를 뼈의 투과 두께인
Figure pat00029
보다 먼저 획득할 수도 있을 것이다.
전술한 바와 같이, 제1 정보 및 제1 엑스선 영상에서 획득 가능한 I 및 Io 값을 이용하고, 엑스선 흡수 특성을 나타내는 [수학식 8]을 이용하면, 대상체의 전체 영역에 대한 대상체 내에 포함되는 연조직의 두께 분포 또는 뼈의 두께 분포를 각각 획득할 수 있다.
다시 도 5를 참조하면, 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 대상체를 형성하는 적어도 하나의 물질에 대한 물질 분리를 수행할 수 있다(S540). 즉, S540 단계에서는, 제1 정보 및 제1 엑스선 영상에 근거하여, 대상체로부터 제1 물질을 분리하여 제1 물질의 입체적 구조와 관련된 제2 정보를 획득할 수 있다. S540 단계의 동작은 영상 처리부(220)를 통하여 수행될 수 있다.
여기서, 물질 분리(material decomposition)는 대상체를 형성하는 서로 다른 물질들 각각에 대한 정보를 획득하는 것을 의미할 수 있다. 구체적으로, 물질 분리는 대상체를 형성하는 복수개의 물질들 중 하나 이상의 물질에 대한 두께, 부피, 형상, 기하학 구조(geometry structure) 등에 대한 정보를 획득하는 것을 의미할 수 있다.
구체적으로, S540 단계는 대상체를 형성하는 제1 물질에 대한 물질 분리(S545)를 수행할 수 있다. 또한, S540 단계는 대상체를 형성하는 제2 물질에 대한 물질 분리(미도시)를 수행할 수 있다.
종래 엑스선 영상 처리 장치 및 엑스선 영상 처리 방법에 있어서, 대상체가 복수의 물질들로 형성될 때, 대상체를 형성하는 서로 다른 복수의 물질들 각각에 대한 정보를 획득하기 위해서는, 복수의 에너지 대역에 대응되는 엑스선들을 각각 대상체로 조사하여 획득된 복수개의 엑스선 영상들이 필요하였다. 왜냐하면, 엑스선 흡수 특성을 나타내는 [수학식 1]이 대상체를 형성하는 복수의 물질들에 대한 합산(sigma) 값들에 의해서 표현되기 때문이다. 여기서, 이러한 복수의 에너지 대역들에 대응되는 엑스선들을 듀얼 에너지 엑스선 또는 멀티 에너지 엑스선이라 칭할 수 있다.
예를 들어, 종래의 기술에서는, 뼈와 연조직 각각의 두께를 측정하려면, 낮은 에너지 대역의 엑스선을 대상체로 조사하여 획득된 엑스선 영상과 높은 에너지 대역의 엑스선을 대상체로 조사하여 획득된 엑스선 영상을 모두 이용하여야만 했다. 따라서, 대상체 내의 복수의 물질들 각각에 대한 두께를 획득하려면, 복수회의 엑스선 촬영을 수행하여야 했다. 그에 따라서, 환자에게 조사되는 엑스선량이 증가될 수밖에 없었다.
또한, 종래의 기술에서는, 단일 에너지 대역을 갖는 한장의 엑스선 영상으로는 대상체의 입체적 구조에 대한 정보를 획득할 수 없었다. 왜냐하면, 엑스선 영상의 특성 상, 대상체의 전면으로 엑스선을 투사(projection)하여, 대상체를 전면적으로 이미징할 수 있을 뿐, 대상체의 전면에 대한 수직 단면에 대한 정보는 획득할 수 없기 때문이다.
이에 비하여, 본 개시의 실시예에서는, 엑스선의 조사 없이 획득 가능한 3차원 정보(구체적으로, 3차원 카메라에서 획득된 정보) 및 한장의 엑스선 영상으로부터, 제1 물질 의 입체적 구조와 관련된 제2 정보를 획득할 수 있다. 그에 따라서, 보다 빠르고 용이하게 서로 다른 이종 물질들 각각의 정보를 획득할 수 있다. 또한, 1회의 엑스선 촬영만을 수행하여 특정 물질에 대한 물질 분리를 수행할 수 있으므로, 대상체로 조사되는 엑스선량을 최소화할 수 있다.
도 6은 본 개시의 실시예에 따른 엑스선 영상 처리 방법을 나타내는 다른 흐름도이다. 본 개시의 실시예에 따른 엑스선 영상 처리 방법(600)은 도 2 내지 도 4를 참조하여 설명한 본 개시의 실시예에 따른 엑스선 영상 처리 장치(200, 300 또는 400)를 통하여 수행될 수 있다. 따라서, 엑스선 영상 처리 방법(600)의 각 단계 동작은 엑스선 영상 처리 장치(200, 300 또는 400)의 각 구성을 통하여 수행될 수 있다. 또한, 도 6에 도시된 엑스선 영상 처리 방법(600)에 있어서, 도 5에 도시된 엑스선 영상 처리 방법(500)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 방법(600)을 설명하는데 있어서, 도 1 내지 도 5에서와 중복되는 설명은 생략한다.
이하에서는, 도 3에서 설명한 엑스선 영상 처리 장치(300)를 참조하여, 엑스선 영상 처리 방법(600)을 상세히 설명한다.
엑스선 영상 처리 방법(500)에 비하여, 엑스선 영상 처리 방법(600)은 S650 단계를 더 포함할 수 있다.
구체적으로, 엑스선 영상 처리 방법(600)은 제1 정보 및 제2 정보에 근거하여, 제2 물질의 입체적 구조와 관련된 제3 정보를 획득할 수 있다(S650). S650 단계의 동작은 영상 처리부(220)를 통하여 수행될 수 있다.
구체적으로, S650 단계에 있어서, 제1 물질을 분리하여 제2 정보를 획득하고 나면 분리된 제1 물질을 이용하여 제2 물질을 분리할 수 있다.
전술한 바와 같이, [수학식 5]를 뼈의 투과 두께를 나타나도록 변형하면, [수학식 8]은 연조직의 투과 두께인
Figure pat00030
에 대한 식으로 표현할 수 있다. 그에 따라서, 연조직의 투과 두께
Figure pat00031
를 뼈의 투과 두께인
Figure pat00032
보다 먼저 획득할 수도 있을 것이다. 그러면, 연조직의 투과 두께
Figure pat00033
에 대한 정보인 제2 정보를 획득하면, 후속하여 연조직의 투과 두께
Figure pat00034
를 [수학식 5]에 대입하여, 뼈의 투과 두께인
Figure pat00035
에 대한 정보인 제3 정보를 획득할 수 있다.
엑스선 영상 처리 방법(600)에 있어서, S545 단계는 제1 물질에 대한 물질 분리를 수행하는 단계이므로, 제1 물질 분리 동작이라 칭할 수 있다. 또한, 엑스선 영상 처리 방법(600)에 있어서, S650 단계는 제2 물질에 대한 물질 분리를 수행하는 단계이므로, 제2 물질 분리 동작이라 칭할 수 있다.
도 7은 본 개시의 실시예에 따른 엑스선 영상 처리 방법을 나타내는 다른 흐름도이다. 도 7에 도시된 엑스선 영상 처리 방법(700)에 있어서, 도 6에 도시된 엑스선 영상 처리 방법(600)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 방법(700)을 설명하는데 있어서, 도 1 내지 도 6에서와 중복되는 설명은 생략한다.
도 7을 참조하면, 3차원 정보 획득 동작(S520)은 제1 엑스선 영상의 획득 동작(S510)은 병렬적으로 또는 시간 순서와 무관하게 수행될 수 있다. 즉, 도 5 및 도 6에서는, 설명의 편의 상 제1 엑스선 영상의 획득 동작(S510)에 후속하여 3차원 정보 획득 동작(S520)이 수행되는 경우를 예로 들어 도시하였으나, 3차원 정보 획득 동작(S520)과 제1 엑스선 영상의 획득 동작(S510)은 상호간의 시간 순서와 무관하게 수행될 수 잇다.
엑스선 영상 처리 방법(700)의 나머지 구성들은 엑스선 영상 처리 방법(600)에서와 동일하다.
도 12는 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다. 도 12에 도시된 엑스선 영상 처리 방법(1200)에 있어서, 도 6에 도시된 엑스선 영상 처리 방법(600)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 방법(1200)을 설명하는데 있어서, 도 1 내지 도 11에서와 중복되는 설명은 생략한다.
엑스선 영상 처리 방법(1200)은 엑스선 영상 처리 방법(600)의 S540 단계에 후속하여, 제1 엑스선 영상에 대하여 후처리(post-processing)를 수행하는 단계(S1260)를 더 포함할 수 있다. S1260 단계의 동작은 영상 처리부(220) 에서 수행될 수 있다.
여기서, 후처리는 영상, 예를 들어, 제1 엑스선 영상 및 스테레오 영상 중 적어도 하나에 포함되는 잡음(noise) 성분 또는 잡음 신호를 제거하거나 영상 균일도를 개선하여, 판독의 정확도를 높이기 위한 처리를 포함할 수 있다. 예를 들어, 제1 엑스선 영상에 대하여 후처리를 수행하는 경우, 후처리는 엑스선 촬영 시 발생하는 산란 엑스선에 의해서 발생하는 산란 잡음을 제거 또는 개선하기 위한 처리를 포함할 수 있다.
또한, 후처리는 제2 정보 및 제3 정보에 근거하여 최종 제2 정보 및 최종 제3 정보를 생성하는 처리를 포함할 수 있다. 예를 들어, 후처리는, 사용자가 제1 엑스선 영상에서 이미징된 대상체를 판독하기에 용이하도록, 제1 물질의 두께를 나타내는 제2 정보로부터 제1 물질의 입체적 구조가 표현된 최종 제2 정보를 생성하는 처리를 포함할 수 있다. 또한, 후처리는, 사용자가 제1 엑스선 영상에서 이미징된 대상체를 판독하기에 용이하도록, 제2 물질의 두께를 나타내는 제3 정보로부터 제2 물질의 입체적 구조가 표현된 최종 제2 정보를 생성하는 처리를 포함할 수 있다.
계속하여, 엑스선 영상 처리 방법(1200)은 후처리 결과가 반영된 최종 영상(예를 들어, 제1 엑스선 영상을 후처리하여 생성한 최종 엑스선 영상)을 생성할 수 있다(S1270). 또한, S1270 단계는, 전술한 바와 같이 제2 정보 및 제3 정보에 근거하여, 최종 제2 정보 및 최종 제3 정보를 생성할 수 있다. S1270 단계의 동작은 영상 처리부(220)에서 수행될 수 있다. 여기서, 최종 엑스선 영상은 제1 엑스선 영상에 포함되는 잡음 성분(noise)을 제거하여 생성된 영상이 될 수 있다.
또한, 제어부(320)는 최종 엑스선 영상이 디스플레이(340)을 통하여 디스플레이 되도록 제어할 수 있다. 또한, 제어부(320)는 최종 엑스선 영상을 포함하는 사용자 인터페이스 화면이 디스플레이(340)을 통하여 디스플레이 되도록 제어할 수 있다. 또한, 제어부(320)는, 최종 엑스선 영상, 제1 정보 및, 제2 정보, 및 제3 정보 중 적어도 하나를 포함하는 사용자 인터페이스 화면이 디스플레이(340)을 통하여 디스플레이 되도록 제어할 수 있다.
도 13은 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 다른 흐름도이다. 또한, 도 13에 도시된 엑스선 영상 처리 방법(1300)에 있어서, 도 12에 도시된 엑스선 영상 처리 방법(1200)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 방법(1300)을 설명하는데 있어서, 도 1 내지 도 12에서와 중복되는 설명은 생략한다.
엑스선 영상 처리 방법(1300)은 제1 엑스선 영상에 대한 후처리(post-processing)로써, 산란 보정을 수행할 수 있다. 여기서, 산란 보정은 엑스선 촬영 시 발생하는 산란 엑스선에 의해서 발생하는 산란 잡음을 제거 또는 개선하기 위한 처리를 의미한다. 여기서, 산란 보정 동작은 산란 추정(scatter estimation)을 포함하여, 영상 내에 존재하는 산란 성분을 제거하기 위한 동작들을 포함할 수 있다.
엑스선 조사부(311)에서 대상체로 엑스선을 조사할 때, 조사된 엑스선이 대상체에 부딪치면 산란 엑스선이 발생하게 된다. 이러한 산란 엑스선 중 대상체의 내부 및/또는 외부에서 반사되어 대상체 내부 및/또는 대상체가 위치한 공간 상으로 퍼져나가게 된다. 산란 엑스선은 엑스선 영상 내의 잡음(noise)을 발생시키며, 엑스선 영상의 화질을 저하시키게 된다. 따라서, 산란 보정을 수행하면 제1 엑스선 영상의 화질을 개선할 수 있다.
또한, 도 1 내지 도 12을 참조하여 설명한 바와 같이, 뼈의 두께 및 연조직의 두께는 엑스선의 흡수 특성을 이용하여 획득될 수 있다. 여기서, 엑스선의 흡수 특성은 전술한 바와 같이 출력된 엑스선의 강도 및 엑스선 디텍터(313)를 통하여 감지된 엑스선의 강도(즉, 대상체를 투과한 후 감지되는 엑스선의 강도)를 이용하여 산출된다. 따라서, 대상체를 투과한 후 감지되는 엑스선의 강도를 정확하게 측정하여야, 벼의 두께 및 연조직의 두께를 정확하게 획득할 수 있다. 또한, 대상체를 투과한 후 감지되는 엑스선의 강도가 정확하게 측정되려면, 산란 방사선의 영향을 최소화하여야 한다. 그러므로, 산란 보정을 수행하면, 뼈의 두께 및 연조직의 두께를 정확하게 획득할 수 있다.
도 13을 참조하면, 엑스선 영상 처리 방법(1300)은 S540 단계의 수행 이후에, 산란 보정 동작(S1360)을 수행할 수 있다. S1360 단계는 영상 처리부(220)에서 수행될 수 있다.
구체적으로, 영상 처리부(220)는 제2 정보 및 제3 정보에 근거하여, 제1 엑스선 영상에 대하여 산란 보정을 수행하고, 산란 보정된 제1 엑스선 영상에 근거하여 제2 정보 및 제3 정보를 갱신할 수 있다.
엑스선의 산란이 발생할 때, 대상체인 인체를 형성하는 물질들 별로 산란의 정도 및 산란 특성이 달라지게 된다. 따라서, 인체를 형성하는 물질들에 대한 정확한 분리 없이는 산란 엑스선을 추정하기가 어렵다.
따라서, 대상체를 형성하는 물질들을 분리한 이후에, 분리된 물질들에 근거하여 산란 엑스선을 추정할 수 있다. 그러므로, 엑스선 영상 처리 방법(1300)은 대상체를 형성하는 서로 다른 복수개의 물질들, 예를 들어, 제1 물질 및 제2 물질 각각을 분리하는 동작(S540)을 수행한 이후에, 분리된 제1 물질 및 제2 물질에 근거하여 산란 엑스선을 예측할 수 있다(S1360). 그리고, 엑스선 영상 처리 방법(1300)은 예측된 산란 엑스선에 근거하여 제1 엑스선 영상에 대한 산란 보정을 수행할 수 있다(S1360).
계속하여, 엑스선 영상 처리 방법(1100)은 산란 보정된 제1 엑스선 영상에 근거하여, 최종 엑스선 영상, 최종 제2 정보 및 최종 제3 정보 중 적어도 하나를 획득할 수 있다(S1370). S1370 단계는 영상 처리부(220)에서 수행될 수 있다. 또는, S1370 단계는 영상 처리부(220) 에서 수행될 수 있다.
구체적으로, 영상 처리부(220)는 산란 보정된 제1 엑스선 영상을 최종 엑스선 영상으로 획득할 수 있다. 또는, 영상 처리부(220)는 산란 보정된 제1 엑스선 영상에 근거하여 제2 정보 및 제3 정보를 다시 획득할 수 있다. 여기서, 산란 보정이 완료된 제1 엑스선 영상을 최종 엑스선 영상이라 칭할 수 있고, 최종 엑스선 영상에 근거하여 획득된 제2 정보 및 제3정보 각각을 최종 제2 정보 및 최종 제3 정보라 칭할 수 있다. 또한, 산란 보정은 적어도 1회 이상 반복적으로 수행될 수 있다.
산란 보정의 상세 동작을 이하에서 도 14 내지 도 15를 참조하여, 상세히 설명한다.
도 14는 본 개시의 실시예에서 수행되는 산란 보정 동작을 설명하기 위한 일 도면이다.
도 15는 본 개시의 실시예에서 수행되는 산란 보정 동작을 설명하기 위한 다른 도면이다.
도 14 및 도 15에 도시된 동작들에 있어서, 도 13에 도시된 구성과 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 도 14 및 도 15에 도시된 구성들을 설명하는데 있어서, 도 13에서와 중복되는 설명은 생략한다.
도 14를 참조하면, 대상체를 형성하는 서로 다른 물질들인 제1 물질 및 제2 물질 각각을 분리하여 그에 대한 정보를 획득하는 물질 분리(material decomposition)(S540)를 수행한 이후에, 물질 분리에 의해서 획득된 정보들, 예를 들어, 제2 정보 및 제3 정보에 근거하여, 산란 엑스선을 추정할 수 있다(S1361). 이하에서는, 제1 엑스선 영상을 획득하기 위한 엑스선 촬영 시 발생한 산란 엑스선을 예측하는 것을 '산란 추정(scatter estimation)'이라 칭하도록 한다.
도 15를 참조하면, 엑스선 영상(1510)은 제1 엑스선 영상을 나타낸다. 도 15에 있어서,
Figure pat00036
는 엑스선 촬영을 통하여 획득된 실제 영상으로, 산란 보정되기 이전의 제1 엑스선 영상을 의미할 수 있다. 구체적으로, 엑스선 영상(1510)은 산란 보정을 수행하기 이전에는, 최초로 획득된 제1 엑스선 영상을 의미할 수 있다. 그리고, 한번의 산란 보정이 수행된 이후 두 번째로 산란 보정을 수행하고자 하는 경우, 한번의 산란 보정이 수행된 엑스선 영상이 엑스선 영상(1510)이라 할 수 있다. 즉, 산란 보정을 수행하고자 할 때, 산란 보정을 위해서 입력되는 영상이 엑스선 영상(1510)이라 할 수 있다.
이하에서는, 엑스선 영상(1510)이 산란 보정을 위하여 입력되는 제1 엑스선 영상인 경우를 예로 들어서 설명한다.
그리고, Io는 [수학식 1]에서와 동일하게 대상체로 조사되는 엑스선의 강도(즉, 엑스선 조사부(311)에서 생성되어 대상체(312)를 향하여 출력된 엑스선의 강도)를 의미한다. 그리고, I(r)은 갱신되어 생성된 제1 엑스선 영상을 의미한다. 구체적으로, I(r)은 산란 보정되어 생성된 엑스선 영상을 의미한다. 여기서, 'r'은 이미징되는 대상체의 영역에 있어서 r 픽셀 (또는, r 번째 픽셀)에 대응되는 위치를 의미할 수 있다. 즉, I(r)은 r 픽셀 (또는, r 번째 픽셀)에 대응되는 위치에서 감지된 엑스선의 강도를 나타낼 수 있다. 또는, I(r)은 제1 엑스선 영상의 r 픽셀 (또는, r 번째 픽셀)에서의 영상 값(또는, 픽셀 값)에 대응될 수 있다.
도 14를 참조하면, 산란 보정 동작(S1360)은 제2 정보 및 제3 정보에 근거하여 제1 엑스선 영상을 획득을 위한 엑스선 촬영 시 발생하는 산란 방사선을 추정하는 동작(S1361) 및 산란 방사선을 추정한 결과에 근거하여, 산란 보정을 수행하는 동작들(S1362, S1363, S1364)을 포함할 수 있다.
구체적으로, S1360 동작은 제2 정보 및 제3 정보에 근거하여, 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선 성분에 대응되는 산란 맵(scatter map)을 생성하는 단계(단계 미도시), 및 산란 맵을 이용하여, 제1 엑스선 영상에서 산란 엑스선에 대응되는 잡음 성분을 제거하여 산란 보정된 제1 엑스선 영상을 획득하는 단계(단계 미도시)를 포함할 수 있다.
구체적으로, 산란 추정 동작(S1361)은 제2 정보 및 제3 정보에 근거하여, 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선의 분포를 나타내는 산란 맵(scatter map)을 생성하는 단계를 포함할 수 있다.
그리고, S1360 동작은 제2 정보 및 상기 제3 정보에 근거하여, 대상체를 나타내며 투사 시뮬레이션(projection simulation)을 통하여 생성된 제1 가상 엑스선 영상을 획득하는 단계(S1362)를 포함할 수 있다. 구체적으로, 상기 제1 가상 엑스선 영상을 획득하는 단계(S1362)는 투사 시뮬레이션을 통하여, 입사된 엑스선이 상기 대상체에 대응되는 팬텀(phantom)를 그대로 통과하여 생성되는 투사 영상(Primary Transmission images)을 생성하는 단계, 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선의 분포를 나타내는 산란 맵(scatter map)을 생성하는 단계, 및 상기 투사 영상과 상기 산란맵을 더하여 상기 제1 가상 엑스선 영상을 획득하는 단계를 포함할 수 있다. S1362 단계은 도 14 및 도 15를 참조하여 상세히 설명한다.
계속하여, 제1 가상 엑스선 영상과 제1 엑스선 영상 간의 비교 결과에 근거하여, S1361 단계에서 획득된 산란 맵을 갱신할지 여부를 결정할 수 있다(S1363). 그리고, S1363 단계의 결정 결과에 근거하여, 산란 보정을 수행할 수 있다(S1364).
이하에서는, 도 15를 참조하여, 산란 보정 동작을 보다 상세하게 설명하도록 한다.
도 15를 참조하면, 도 15에 도시된 I(r)은 제1 엑스선 영상에서 산란 보정을 수행하여 생성된 엑스선 영상을 의미한다. 산란 보정이 수행되기 이전에는,
Figure pat00037
과 I(r)이 동일할 수 있다.
또한, 도 15에 도시된 수식들에 기재된 변수들 중, [수학식 1] 내지 [수학식 8]에 기재된 변수들과 중복되는 변수들에 대한, 상세 설명은 생략한다.
도 15를 참조하면, 산란 추정 동작(S1361)은 제2 정보 및 제3 정보에 근거하여 수행될 수 있다. 구체적으로, 산란 추정 동작(S1361)은 제2 정보 및 제3 정보에 근거하여, 제1 엑스선 영상 내의 산란 (scatter) 엑스선에 대응되는 산란 맵(scatter map)을 생성할 수 있다.
도 15를 참조하면, 엑스선 영상 처리 방법(1300)은 산란 추정 동작(S1361)을 수행하여, 산란 맵인
Figure pat00038
을 획득할 수 있다.
구체적으로, 제1 엑스선 영상(1510)으로부터 제1 물질(예를 들어, 연조직)을 분리하고 제2 물질(예를 들어, 뼈)을 분리한다. 그리고, 분리된 물질들의 두께 분포인 t(r)을 이용하여 산란 맵을 생성할 수 있다.
구체적으로, 제1 물질의 두께 분포 및 제2 물질의 두께 분포를 알면, 제1 물질 및 제2 물질 각각의 특성인 밀도, 감쇠 계수 및 부피 등에 따라서 대상체 내부 및/또는 외부에서 엑스선의 산란이 어떻게 발생하는지를 예측할 수 있다. 여기서, 산란 맵(scatter map)은 엑스선 영상 상에서 이미징되는 산란 엑스선의 분포를 나타낸다. 구체적으로, 산란 맵은, 제1 엑스선 영상에서 이미징된 대상체 내부 및/또는 외부에서 발생하는 산란 엑스선을 나타내며, 2차원 정보로 표현될 수 있다. 구체적으로, 산란 맵은 제1 엑스선 영상의 해상도 및 영상 크기에 대응되는 해상도 및 영상 크기를 갖는, 2차원 영상 데이터로 표현될 수 있다.
그리고, 산란 맵을 이용하여, 제1 엑스선 영상에서 산란 엑스선에 대응되는 잡음 신호를 제거하는 산란 보정을 수행할 수 있다(S1364). S1364 단계는 영상 처리부(220) 에서 수행될 수 있다.
구체적으로, 제1 엑스선 영상(1510)에서 산란 맵에 포함되는 산란 엑스선 성분을 제거하여, 산란 보정된 제1 엑스선 영상을 생성할 수 있다. 예를 들어, 제1 엑스선 영상(1510)에서 산란 맵을 빼는 연산을 수행하여, 제1 엑스선 영상(1510)에서 산란 엑스선 성분을 제거할 수 있다. 여기서, 산란 보정된 제1 엑스선 영상은 De-scatter Image(1570)로 도시하였으며, I(r)로 표현하였다. 구체적으로, 산란 보정된 제1 엑스선 영상인 I(r)은 이하의 [수학식 9]에서와 같이 표현할 수 있다.
[수학식 9]
Figure pat00039
또한, 엑스선 영상 처리 방법(1300)은 제1 가상 엑스선 영상을 생성하고(S1362), 제1 가상 엑스선 영상과 제1 엑스선 영상 간의 비교 결과에 근거하여, 산란 보정을 수행할 수 있다(S1363, S1364). S1363, S1364 단계의 동작은 영상 처리부(220)에서 수행될 수 있다. 여기서, 제1 가상 엑스선 영상은 제2 정보, 제3 정보, 및 산란 맵에 근거하여 생성되는 시뮬레이션된 이미지(simulated image)(1540)다.
구체적으로 도 15를 참조하면, 물질 분리 동작을 수행하여 대상체를 형성하는 물질들이 분리되고, 분리된 물질들의 3차원적 구조를 나타내는 제2 정보 및 제3 정보가 획득된다(S540). 구체적으로, 제2 정보 및 제3 정보 각각은 제1 물질의 두께에 대한 정보 및 제2 물질의 두께에 대한 정보를 포함할 때, 제2 정보 및 제3 정보를 이용하여 대상체의 3차원 모델(Object 3D Model)을 획득할 수 있다. 또한, 분리된 물질들에 대한 3차원 구조를 나타내는 제2 및 제3 정보에 근거하여, 대상체의 3차원 모델에 대응되는 팬텀(phantom)을 생성할 수 있다. 그리고, 상기 팬텀으로 엑스선을 투사(Projection)시키는 시뮬레이션을 통하여, 투과 영상을 생성할 수 있다. 여기서, 대상체의 3차원 모델에 대응되는 팬텀(phantom) 을 입사 엑스선이 흡수 없이 투과하는 것을 투과 영상 (Primary Transmission)(1550)으로 표현하였다. 또한 팬텀에 의하여 산란된 엑스선의 분포를 산란 맵이라고 표현할 수 있다.. 그리고, 투과 영상에 산란 맵에 나타나는 산란 방사선을 합하면, 제1 가상 엑스선 영상을 생성할 수 있다(S1362). 따라서, 제1 가상 엑스선 영상은 이하의 [수학식 10]에서와 같이 표현할 수 있다.
[수학식 10]
Figure pat00040
[수학식 10]에 있어서,
Figure pat00041
는 제1 가상 엑스선 영상을 나타내며,
Figure pat00042
는 투과 영상을 나타낸다.
그리고, 영상 처리부(220)는 제1 가상 엑스선 영상과 제1 엑스선 영상(1510) 간의 비교 결과에 근거하여, 산란 맵을 갱신할지 여부를 결정할 수 있다(S1363). S1363 단계의 동작은 영상 처리부(220)에서 수행될 수 있다.
구체적으로, 영상 처리부(220)는 제1 가상 엑스선 영상과 제1 엑스선 영상 간의 차이 값이 제1 한계값 이하 또는 미만이면, 제1 엑스선 영상을 산란 보정하는 후처리(post processing)를 수행하여(S1364), 최종 엑스선 영상을 생성할 수 있다(1580).
그리고, 제1 가상 엑스선 영상과 제1 엑스선 영상 간의 차이 값이 제1 한계값 초과 또는 이상이면, 산란 맵을 갱신하기 위해서 S540 단계로 회귀하여 물질 분리 동작 (S540) 및 산란 추정 동작(S1361) 동작을 다시 수행하여 산란 맵을 갱신할 수 있다. 산란 맵을 갱신하는 경우, 이전에 구해진 산란 맵(즉, 갱신 이전의 산란 맵)을 이용하여 제1 엑스선 영상을 산란 보정한 후, 산란 보정된 제1 엑스선 영상에 근거하여 제2 정보 및 제3 정보를 재 획득하고, 재 획득된 제2 정보 및 제3 정보에 근거하여 다시 산란 맵을 구할 수 있다. 여기서, 재 획득된 제2 정보 및 제3 정보에 근거하여 다시 구해진 산란 맵이 갱신된 산란 맵이 될 수 있다. 즉, [수학식 9]에서와 같이 제1 엑스선 영상에서 산란 맵에 나타난 신호 성분을 빼서, 산란 보정된 제1 엑스선 영상을 생성할 수 있다. 그리고, 산란 보정된 제1 엑스선 영상에 근거하여 다시 물질 분리 동작(S540) 및 산란 추정 동작(S1361)을 수행하여, 산란 맵을 갱신할 수 있다.
구체적으로, 제1 한계값은 제1 엑스선 영상과 제1 가상 엑스선 영상과의 유사성을 비교하기 위한 기준값이 될 수 있다. 구체적으로, 제1 엑스선 영상과 제1 가상 엑스선 영상 간의 차이와 제1 한계값을 비교하였을 때, 제1 엑스선 영상과 제1 가상 엑스선 영상간의 차이가 설정된 오차 범위 내에 존재하도록 하는 값을 제1 한계값으로 설정할 수 있다. 여기서, 제1 엑스선 영상과 제1 가상 엑스선 영상 간의 차이는 mean square value 등으로 표현될 수 있다. 또한, 설정된 오차 범위는, 제1 엑스선 영상의 목표 화질 등을 고려하여 엑스선 장치(100), 엑스선 영상 처리 장치(200, 300, 또는 400), 또는 사용자가 설정할 수 있을 것이다.
본 개시의 실시예에서, 산란 보정은 반복적으로 수행될 수 있다. 구체적으로, 산란 보정 동작은 S1363 단계에서 설명한 제1 가상 엑스선 영상과 제1 엑스선 영상 간의 차이 값이 제1 한계값 이하 또는 미만인 조건을 만족할 때까지 반복적으로 수행될 수 있다.
구체적으로, 산란 보정된 엑스선 영상이 도 14 및 도 15의 비교 동작(S1363)에서의 오차 범위 요건을 만족할 때까지, 물질 분리 동작(S540) 및 산란 추정 동작(S1361)을 반복 실시함으로써, 최상의 화질을 갖는 최종 엑스선 영상을 생성할 수 있게 된다. 그에 따라서, 최종 엑스선 영상에 근거하여 제2 정보 및 제3 정보를 획득한다. 따라서, 제2 정보 및 제3 정보의 정확도를 높일 수 있다.
도 16은 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다. 도 16에 도시된 엑스선 영상 처리 방법(1600)은 도 2 내지 도 4를 참조하여 설명한 본 개시의 실시예에 따른 엑스선 영상 처리 장치(200, 300 또는 400)를 통하여 수행될 수 있다. 따라서, 엑스선 영상 처리 방법(1600)의 각 단계 동작은 엑스선 영상 처리 장치(200, 300 또는 400)의 각 구성을 통하여 수행될 수 있다. 또한, 엑스선 영상 처리 방법(1600)에 있어서, 도 5 내지 도 7에 도시된 엑스선 영상 처리 방법(500, 600, 또는 700)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 방법(1600)을 설명하는데 있어서, 도 1 내지 도 15에서와 중복되는 설명은 생략한다.
도 16을 참조하면, 엑스선 영상 처리 방법(1600)은 S510 단계에서 획득된 제1 엑스선 영상으로부터 제1 물질이 이미징된 제1 부분 영상 및 제1 물질과 제2 물질이 중첩되어 이미징된 제2 부분 영상을 획득할 수 있다(S1615). S1615 단계의 동작은 영상 처리부(220)에서 수행될 수 있다.
그리고, 3차원 정보에 근거하여 획득된 제1 정보, 제1 부분 영상 및 제2 부분 영상에 근거하여, 제1 물질에 대응되는 제2 정보 및 제2 물질에 대응되는 제3 정보를 각각 획득할 수 있다(S1650). S1650 단계의 동작은 영상 처리부(220)에서 수행될 수 있다. 구체적으로, 제1 정보 및 제1 부분 영상에 근거하여 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하며(S1651), 제1 정보 및 제2 부분 영상에 근거하여 제2 물질의 입체적 구조와 관련된 제3 정보를 획득할 수 있다(S1652).
구체적으로, 제1 부분 영상은 제1 엑스선 영상 중 제1 물질만이 이미징된 영역이다. 그리고, 제2 부분 영상은 제1 엑스선 영상 중 제1 물질 및 제2 물질이 중첩적으로 이미징된 영역이다.
엑스선 영상 처리 방법(1600)의 구체적인 동작들은 이하에서 도 3에 도시된 엑스선 영상 처리 장치(300) 및 도 17 내지 도 19를 참조하여 상세히 설명한다.
영상 처리부(220)는 제1 엑스선 영상에 있어서 제1 물질만이 이미징된 영역을 제1 부분 영상으로 분할(segmentation)하고, 제1 물질 및 제2 물질이 중첩적으로 이미징된 영역을 제2 부분 영상으로 분할(segmentation)할 수 있다.
구체적으로, 제1 부분 영상 및 제2 부분 영상의 분할 또는 추출은 대상체를 투과한 엑스선의 강도(intensity) 값들에 근거하여 수행될 수 있다. 구체적으로, 제1 부분 영상 및 제2 부분 영상의 분할 또는 추출은 제1 엑스선 영상을 이미징하기 위해서 엑스선 디텍터(313)에서 감지된 엑스선의 강도(intensity) 값들에 근거하여 수행될 수 있다. 또는, 제1 부분 영상 및 제2 부분 영상의 분할 또는 추출은 제1 엑스선 영상의 화소 값들에 근거하여 수행될 수 있다.
예를 들어, 영상 처리부(220)는 제1 엑스선 영상에서 제1 물질을 투과한 엑스선의 강도에 대응되는 화소 값들로 이미징된 영역을 제1 부분 영상으로 추출할 수 있다. 또한, 영상 처리부(220)는 제 1 부분 영상에 인접하며, 제1 물질이 존재하는 영역과 제1 물질 및 제2 물질이 중첩적으로 존재하는 영역의 경계에 대응되는 제2 부분 영상을 획득할 수 있다. 구체적으로, 제1 부분 영상과 제2 부분 영상은 제1 물질과 제2 물질의 경계에서 상호 인접하는 영상들이 될 수 있다. 즉, 제1 부분 영상은, 제1 물질과 제2 물질의 경계에서 제1 물질만이 이미징된 영역을 포함한다. 그리고, 제2 부분 영상은, 제1 물질과 제2 물질의 경계에서, 제1 물질과 제2 물질이 중첩적으로 이미징된 영역을 포함한다.
구체적으로, 영상 처리부(220)는 대상체의 두께에 대한 제1 정보를 이용하여, 제1 부분 영상으로부터 제1 물질에 대한 제2 정보를 획득할 수 있다. 또한, 영상 처리부(220)는 엑스선의 흡수 특성, 제1 정보 및 제2 정보를 이용하여, 제2 부분 영상으로부터 제3 정보를 획득할 수 있다. 여기서, 엑스선 흡수 특성은, 대상체를 향하여 출력된(또는, 조사된) 엑스선이 대상체 내의 물질에서 적어도 일부 흡수되고, 출력된 엑스선 중 적어도 일부만이 대상체를 통과하여 감지되게 되는 특성을 나타낸다. 출력된 엑스선이 대상체를 통과하면서 감쇠되는 관점에서 보면, 엑스선 흡수 특성은 엑스선 감쇠 특성이라 할 수 있다.
도 17은 본 개시의 다른 실시예에서 제1 부분 영역 및 제2 부분 영역의 획득 동작을 설명하기 위한 일 도면이다.
도 17을 참조하면, 환자의 근골격계에서의 질병 유무를 판단하기 위해서, 환자의 어께를 촬영하여 획득한 엑스선 영상(1700)이 도시된다. 러 엑스선 영상(raw x-ray image)(1700)에 있어서, 뼈(1731)는 가장 어둡게 이미징 되며, 뼈(1731)에 인접하며 뼈를 둘러싸며 형성되는 연조직(1732)은 뼈에 비하여 상대적으로 밝게 이미징된다. 또한, 대상체를 투과하지 않고 통과한 엑스선에 대응되는 부분은 엑스선 영상(1700) 내에서 흰색으로 이미징될 수 있다.
영상 처리부(220)는 제1 엑스선 영상(예를 들어, 1700) 내에서 연조직만 이미징된 제1 부분 영상(예를 들어, 1741) 및 연조직과 뼈가 중첩적으로 이미징된 제2 부분 영상(예를 들어, 1742)을 획득한다(S1615). 여기서, 제1 부분 영상은, 제1 물질인 연조직(1732)과 제2 물질인 뼈(1731)의 경계에서 제1 물질만이 이미징된 영역(1741)을 포함한다. 그리고, 제2 부분 영상은, 제1 물질인 연조직(1732)과 제2 물질인 뼈(1731)의 경계에서, 제1 물질인 연조직(1732)과 제2 물질인 뼈(1731)가 중첩적으로 이미징된 영역(1741)을 포함한다. 뼈(1731)는 피부, 근육 등의 연조직(1732)에 둘러싸여 있으므로, 뼈(1731)가 이미징된 영역은 뼈(1731)와 연조직(1732)이 중첩적으로 이미징된 영역이라 할 수 있다.
구체적으로, 영상 처리부(220)는 제1 엑스선 영상의 픽셀 값들에 근거하여, 제1 엑스선 영상으로부터 연조직에 대응되는 픽셀 값들로만 이뤄진 영역(예를 들어, 1741)을 제1 부분 영상으로 분할(segmentation) 또는 추출할 수 있다. 또는, 영상 처리부(220)는 제1 엑스선 영상을 이미징하기 위해서 엑스선 디텍터(예를 들어, 도 3의 313)에서 감지된 엑스선의 강도(intensity) 값들에 근거하여, 제1 엑스선 영상으로부터 연조직에 대응되는 픽셀 값들로만 이뤄진 영역(예를 들어, 1741)을 제1 부분 영상으로 분할(segmentation) 또는 추출할 수 있다. 그리고, 영상 처리부(220)는 제1 부분 영상에 인접한 영역이자, 뼈와 연조직이 중첩적으로 이미징된 영역(예를 들어, 1742)을 제2 부분 영상으로 분할 또는 추출할 수 있다. 구체적으로, 제1 부분 영상과 제2 부분 영상은, 제1 엑스선 영상 내에서 뼈와 연조직의 경계에서 서로 인접하는 영역들을 나타낼 수 있다.
또한, 제1 부분 영상 및 제2 부분 영상은 신경망을 통한 연산을 수행하여 획득될 수 있다. 신경망 연산을 통한 제1 부분 영상 및 제2 부분 영상의 획득은 이하에서 도 19를 참조하여, 상세히 설명한다.
도 19는 제1 부분 영역 및 제2 부분 영역을 획득하기 위한 연산을 수행하는 신경망을 설명하기 위한 도면이다.
영상 처리부(220)는 입력 계층, 숨은 계층(hidden layer) 및 출력 계층을 포함하는 신경망, 예를 들어, 심층 신경망(1920)을 통한 연산을 수행할 수 있다. 도 19에서는, 신경망에 포함되는 숨은 계층이 다단으로 형성되는 심층 신경망(DNN: Deep Neural Network)으로 형성된 경우를 예로 들어 도시하였다.
도 19를 참조하면, 심층 신경망(1920)은 입력 계층(1930), 숨은 계층(hidden layer)(1940) 및 출력 계층(1950)을 포함한다. 도 19에서는 입력 데이터인 제1 엑스선 영상에 포함되는 정보를 분석하여, 제1 엑스선 영상으로부터 제1 물질이 이미징된 제1 부분 영상 및 제1 물질 및 제2 물질이 중첩적으로 이미징된 제2 부분 영상을 분할 또는 추출하도록 연산하는 심층 신경망(1920)을 예로 들어 도시하였다. 구체적으로, 심층 신경망(1920)은 입력 데이터가 제1 엑스선 영상(1910)일 때, 엑스선 영상(1910)에 포함되는 영상 객체인 대상체를 분석하여, 제1 물질이 이미징된 제1 부분 영상 및 제1 물질 및 제2 물질이 중첩적으로 이미징된 제2 부분 영상을 추출하여 출력 데이터(1970)로 출력할 수 있다.
여기서, 입력 계층(1930)으로 입력되는 제1 엑스선 영상(1910)는 S510 단계에서 획득된 제1 엑스선 영상을 나타낸다.
심층 신경망(1920)을 형성하는 복수개의 계층들은 데이터를 수신하는 복수개의 노드(node)(예를 들어, 1931)들을 포함할 수 있다. 그리고, 인접한 두 개의 계층들은 도시된 바와 같이 복수개의 엣지(edge)(예를 들어, 1936)들로 연결된다. 각각의 노드들은 대응되는 가중치값을 가지고 있어서, 심층 신경망(1920)은 입력된 신호와 가중치 값을 연산, 예를 들어, 컨볼루션(convolution) 연산한 값에 근거하여, 출력 데이터를 획득할 수 있다.
여기서, 심층 신경망(DNN: Deep Neural Network)(1920)는 신경망을 기반으로 하는 추론 및 예측 연산을 수행하며, 심층 신경망(DNN) 연산은 컨볼루션 신경망(CNN: Convolution Neural Network) 연산 등을 포함할 수 있다. 즉, 본 개시의 실시예에서 이용되는 심층 신경망(1920)은 컨볼루션 신경망(CNN: Convolution Neural Network) 연산을 수행하는 CNN 신경망으로 형성될 수 있다.
도 19에 도시된 실시예를 참조하면, 입력 계층(1930)은 대상체인 흉부를 촬영하여 획득한 제1 엑스선 영상(1910)를 입력 받는다.
도 19에서는, 숨은 계층(1940)이 3 단계의 계층들로 형성된 경우를 예로 들어 도시하였다. 숨은 계층(1940)의 심도(depth)는 이용되는 신경망의 제차 사양 및/또는 설계 사양에 따라서 달라질 수 있다.
도 19을 참조하면 심층 신경망(1920)은 입력 계층(1930)과 제1 숨은 계층(HIDDEN LAYER1) 간에 형성되는 제1 계층(Layer 1)(1961), 제1 숨은 계층(HIDDEN LAYER1)과 제2 숨은 계층(HIDDEN LAYER2) 간에 형성되는 제2 계층(Layer 2)(1962), 및 제2 숨은 계층(HIDDEN LAYER2)과 제3 숨은 계층(HIDDEN LAYER3) 간에 형성되는 제3 계층(Layer 3)(1963), 및 제3 숨은 계층(HIDDEN LAYER3)과 출력 계층(OUTPUT LAYER(1950) 간에 형성되는 제4 계층(Layer 4)(1964)으로 형성될 수 있다.
심층 신경망(1920)의 입력 계층(1930)에 포함되는 복수개의 노드들은 제1 엑스선 영상(1910)에 대응되는 복수개의 데이터들을 수신한다. 여기서, 복수개의 데이터들은 제1 엑스선 영상(1910)은 분할하는 필터 처리를 하여 생성된 복수개의 부분 영상들이 될 수 있다.
그리고, 숨은 계층(1940)에 포함되는 복수개의 계층들에서의 연산을 통하여, 출력 계층(1950)에서는 제1 엑스선 영상(1910)를 분석한 결과 획득된 출력 데이터(1970)를 출력할 수 있다. 여기서, 출력 데이터(1970)는 제1 물질이 이미징된 제1 부분 영상 및 제1 물질 및 제2 물질이 중첩적으로 이미징된 제2 부분 영상이 될 수 있다.
구체적으로, 심층 신경망(1920)은 컨볼루션 신경망(CNN)으로 형성된 경우, 컨볼루션 신경망(CNN)은 영상 내에 포함되는 정보들끼리의 상관 관계가 지역적(local)인 경우, 특정 지역만을 비추는 필터의 개념을 도입하고 이 필터 내에서의 정보들을 컨볼로션(convolution)하여 필터 내의 영상의 특징에 대한 정보를 정밀하게 추출할 수 있다.
구체적으로, CNN 기반의 신경망(1920) 내에 존재하는 숨은 계층(1940)에는, 컨볼루션 계층(convolution layer)과 풀링 계층(pooling layer)이 번갈아 가면서 배치되며, 각 계층 필터(filter)의 심도(depth)는 왼쪽에서 오른쪽으로 갈수록 증가하게 된다. 또한, CNN 기반의 신경망(1920)의 최종 단은 완전 연결 계층(fully connected layer)로 형성될 수 있다. 여기서, 컨볼루션 계층(convolution layer)은 컨볼루션 연산에 따라서 생성되는 데이터들의 계층이며, 풀링 계층(pooling layer)은 서브 샘플링(subsampling) 또는 풀링이라는 연산을 통하여 데이터의 숫자 또는 크기를 줄이기 위한 계층이다. 컨볼루션 계층(convolution layer)과 풀링 계층(pooling layer)을 통과하면서, 입력된 이미지의 특징을 나타내는 데이터들(예를 들어, feature map)이 생성되게 된다. 구체적으로, 숨은 계층(1940)을 통한 연산을 통하여, 제1 엑스선 영상(1910)의 이미지 특징들이 생성되며, 이미지 특징들에 근거하여 제1 물질만이 이미징된 제1 부분 영상과 제1 물질과 제2 물질이 중첩적으로 이미징된 제2 부분 영상이 더욱 정밀하게 추출될 수 잇다.
그리고, 이러한 컨볼루션 계층 및 풀링 계층을 통과하여 생성된 데이터들을 완전 연결 계층(fully connected layer)으로 형성되는 숨겨진 계층(hidden layer)을 통하여 가공하면, 추출 또는 분할의 대상이 되는 제1 부분 영상 및 제2 부분 영상이 추출되어 출력될 수 있다.
또한, 심층 신경망(1920)을 통하여 출력된 출력 데이터의 정확도를 높이기 위해서, 출력 계층(1950)에서 입력 계층(1930) 방향으로 학습(training)을 수행하며 출력 데이터의 정확도가 높아지도록 신경망(1920)을 형성하는 노드들(예를 들어, 1931)의 가중치값들을 수정할 수 있다. 따라서, 심층 신경망(1920)는 제1 엑스선 영상(1910)이 입력되기 이전에, 복수개의 서로 다른 엑스선 영상들을 학습(training)하여, 엑스선 영상에 포함되는 제1 물질을 이미징한 제1 부분 영상 및 제1 물질 및 제2 물질이 이미징된 제2 부분 영상을 정확하게 검출하는 방향으로, 각 노드들의 가중치값을 수정할 수 있다.
또한, 심층 신경망(1920)은 제1 부분 영상 및 제2 부분 영상에 근거하여, 전술한 제1 물질의 입체적 구조에 대한 제1 정보 및 제2 물질에 대한 제2 정보를 획득하기 위한 연산을 수행할 수 있다.
또한, 심층 신경망(1920)은 제1 정보 및 제2 정보에 근거하여, 제1 물질 분리 및 제2 물질 분리를 위한 연산을 수행할 수 있다. 그리고, 그에 대한 결과를 출력 계층(1950)을 통하여 출력할 수 있을 것이다.
계속하여, 엑스선 영상 처리 방법(1600)은 제1 엑스선 영상(예를 들어, 1700)에 포함되는 제1 부분 영상(예를 들어, 1741)에 근거하여 제1 물질의 입체적 구조와 관련된 제2 정보를 획득한다(S1650). S1650 단계의 동작은 영상 처리부(220)에서 수행될 수 있다. 그리고, 엑스선 영상 처리 방법(1600)은 S1650 단계에서 획득된 제1 정보 및 제2 부분 영상(예를 들어, 1742)에 근거하여, 제2 부분 영상에서의 제1 물질에 대한 제2 정보 및 제2 물질에 대한 제3 정보를 획득한다(S1650). S1650 단계의 동작은 영상 처리부(220)에서 수행될 수 있다.
도 8 및 도 17을 참조하면, 도 8에 도시된 뼈(812) 및 연조직(811)은 각각 도 17의 뼈(1731) 및 연조직(1732)에 대응될 수 있다. 또한, 조직만이 이미징된 제1 부분 영역은 (1) 영역(821)에 대응될 수 있으며, 연조직과 뼈가 중첩적으로 이미징되는 제2 부분 영역은 (2) 영역(822)에 대응될 수 있다.
제1 물질인 연조직만이 이미징된 제1 부분 영상에 대하여, 연조직의 두께 ts는 제1 정보의 두께 PT 로 표현될 수 있다. 즉, ts=PT 가 될 수 있다. 그리고, 제1 물질인 연조직과 제2 물질인 뼈가 중첩적으로 이미징되는 제2 부분 영상에서는 [수학식 2]가 이하의 [수학식 6]와 같이 표현된다.
그러므로, 연조직만 이미징된 제1 부분 영상(예를 들어, 도 8에 도시된 (1) 영역(821) 또는 영역(1741)에 대응하는, 대상체 두께에 대한 제1 정보(구체적으로, S530 단계에서 획득된 제1 정보)를 이용하여, 제1 부분 영상에서의 연조직의 두께인 ts 값을 획득할 수 있다(S1651).
그리고, 연조직의 두께값인 ts=PT, 밀도, 및 감쇠계수를 알고 있으며 Io 값을 알고 있으므로, 엑스선의 흡수 특성을 나타내는 [수학식 6]를 이용하여 뼈의 두께인 tB 값을 획득할 수 있다(S1652). 여기서, [수학식 6]에서의 I 값은 엑스선이 뼈와 연조직이 중첩되는 대상체(810) 부위를 투과하여 감지된 엑스선의 강도 값이 될 수 있다. 따라서, I 는 측정된 값을 가질 수 있으며, 측정된 I 값을 [수학식 6]에 대입할 수 있을 것이다.
구체적으로, 제1 부분 영상과 제2 부분 영상이 뼈와 연조직의 경계(예를 들어, 832)를 기준으로 인접하여 있을 때, 제2 부분 영상 내에서 이미징되는 연조직의 두께는 대상체의 두께에 대한 제1 정보에 근거하여 획득될 수 있다.
도 18은 본 개시의 다른 실시예에서 뼈의 두께 및 연조직의 두께의 획득 동작을 설명하기 위한 다른 도면이다.
도 18은 엑스선 영상에서 이미징된 대상체 내의 물질들의 두께를 설명하기 위한 도면이다. 도 18에 있어서, 도 8에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 도 18에 도시된 그래프들(1800)은 소정 축(예를 들어, 도 17의 수직선(1721))에서의 대상체의 수직 단면에서의 대상체의 두께를 설명하기 위한 그래프들이다. 여기서, 도 18에 도시된 X 축(1840)은 도 8에 도시된 그래프(850)의 X 축과 동일 대응될 수 있다. 그리고, 도 18에 도시된 그래프들(1800)의 Y 축은 대상체(810)를 형성하는 물질들의 두께(thickness)를 나타낸다.
도 18을 참조하면, 그래프(1820)는 연조직의 두께를 나타내며, 그래프(1810)는 뼈의 두께를 나타낸다. 그리고, 그래프(1830)은 뼈와 연조직으로 형성된 대상체(810)의 두께를 나타낸다.
도 18 및 도 8을 참조하면, 대상체(810)는 대상체의 경계(831)에 대응되는 P1 위치에서부터 연조직과 뼈의 경계(832)에 대응되는 P2 위치까지는 연조직만 존재하며, 연조직의 두께는 점차적으로 증가하게 된다. 여기서, P1 내지 P2 구간 사이의 연조직의 두께는 전술한 엑스선의 흡수 특성, 구체적으로, [수학식 11]를 이용하여 획득될 수 있다.
[수학식 11]
Figure pat00043
계속하여, 연조직(811)과 뼈(812)의 경계(832)를 기점으로, 뼈(812)의 두께가 그래프(1810)에서와 같이 증가할 수 있다.
여기서, 연조직(811)과 뼈(812)의 경계(832)를 기점으로 상호 인접한 두 위치인 P21 및 P22 에서의 대상체(810)의 두께는 동일 또는 유사한 값을 가질 수 있다. 구체적으로, 대상체(810)의 두께 분포는 연속성을 가지므로, 연조직(811)과 뼈(812)의 경계(832)에서도 대상체(810)의 두께 분포는 연속성을 가지게 된다. 즉, 연조직(811)과 뼈(812)의 경계(832)를 기점으로, 대상체(810)의 두께는 급격히 변화하지 않으며 부드럽게(smooth) 변화하게 된다. 이렇게, 인체를 형성하는 물질들의 총 두께 분포 특징은 도 18의 그래프(1830)에서와 같이 표현될 수 있다. 여기서, 인체를 형성하는 물질들의 총두께 분포 특징을 smooth thickness shift 원리라 칭할 수 있다.
또한, 총두께 분포 특징은 복수의 환자들에 대한 진단 결과에 근거하여 획득된 알려진 형태를 가질 수 있다. 즉, 도 18에 도시된 그래프(1830)는 실험적으로 또는 통계적으로 알려진 형태가 될 수 있다. 또한, 도 18에 그래프(1830)는 복수의 환자들의 두께 분포 측정 결과에 기반한 인체 모델 또는 인체 프로파일을 통하여 모델링 될 수 있다.
따라서, 연조직(811)과 뼈(812)의 경계(832)에 대응되는 P2 위치 또는 P21 위치에서의 연조직(811)의 두께값을 알면, 연조직(811)과 뼈(812)의 경계(832)에 인접하는 제2 부분 영역에서 이미징된 연조직(811)의 두께를 알 수 있다. 또한, P21 위치 및 P22 위치는 연조직(811)과 뼈(812)의 경계(832)에 대응되는 P2 위치를 기점으로 상호 인접하는 위치들이 되므로, P21 위치에서의 대상체의 총 두께와 P22 위치에서의 대상체의 총 두께는 연속적으로 부드럽게(smooth)하게 변화되게 된다.
전술한 그래프(1830)에서와 같이 대상체의 총 두께는 연속성을 가지므로, P21 위치에서 측정된 대상체의 총 두께는 P22 위치에서 측정된 대상체의 총 두께와 동일하다고 가정할 수 있다.
그에 따라서, [수학식 12]에서와 같이 표현될 수 있다.
[수학식 12]
Figure pat00044
[수학식 12]에 있어서, S1은 제1 부분 영상에서 이미징된 대상체 영역에 존재하는 연조직(soft tissue)을 나타내며, S2는 제2 부분 영상에서 이미징된 대상체 영역에 존재하는 연조직을 나타내며, B2는 제2 부분 영상에서 이미징된 대상체 영역에 존재하는 뼈를 나타낸다. 즉, t_S1(
Figure pat00045
)은 제1 부분 영상에서 이미징된 연조직의 두께를 나타내며, t_S2(
Figure pat00046
)는 제2 부분 영상에서 이미징된 연조직의 두께를 나타내고, t_B2(
Figure pat00047
)는 제2 부분 영상에서 이미징된 뼈의 두께를 나타낸다. 또한, t_S1은 연조직(811)과 뼈(812)의 경계(832)에 인접하는 P21 위치(제1 부분 영상에 대응되는 대상체 내의 위치)에서의 연조직의 두께를 나타내며, t_S2는 연조직(811)과 뼈(812)의 경계(832)에 인접하는 P22 위치(제2 부분 영상에 대응되는 대상체 내의 위치)에서의 연조직의 두께를 나타내며, t_B2는 연조직(811)과 뼈(812)의 경계(832)에 인접하는 P22 위치(제2 부분 영상에 대응되는 대상체 내의 위치)에서의 뼈의 두께를 나타낸다.
전술한 바와 같이, P21 위치에서 측정된 대상체의 총 두께는 P22 위치에서 측정된 대상체의 총 두께와 동일하다고 가정하면, P21 위치에서의 대상체의 총 두께인 연조직의 두께 t_S1은, P22 위치에서 측정된 연조직의 두께 t_S2와 뼈의 두께 t_B2 를 합한 값과 동일한 값을 가질 수 있다.
또한, [수학식 12]을 변형하면, 이하의 [수학식 13]에서와 같이 표현할 수 있다.
[수학식 13]
Figure pat00048
또한, 연조직과 뼈가 공존하는 대상체 영역인 제2 부분 영상에 대응되는 대상체 영역에서는, [수학식 6]이 이하의 [수학식 14]에서와 같이 표현될 수 있다.
[수학식 14]
Figure pat00049
[수학식 14]에 있어서, 연조직의 감쇠계수
Figure pat00050
, 연조직의 밀도인
Figure pat00051
, 뼈의 감쇠계수
Figure pat00052
, 및 뼈의 밀도
Figure pat00053
는 알려진 값이 될 수 있다. 그리고, [수학식 14]에서의 I는 뼈와 연조직이 공존하는 대상체를 투과하여 감지된 엑스선의 강도 값이므로, 엑스선 촬영 시 측정될 수 있다.
그리고, [수학식 14]에서의 t_S2에 [수학식 13]을 대입하면, 이하와 같은 [수학식 9]를 획득할 수 있다.
[수학식 15]
Figure pat00054
그리고, [수학식 15]를 변형하면, 이하와 같이 [수학식 16]을 획득할 수 있다.
[수학식 16]
Figure pat00055
[수학식 16]에 있어서, 연조직의 감쇠계수
Figure pat00056
, 연조직의 밀도인
Figure pat00057
, 뼈의 감쇠계수
Figure pat00058
, 및 뼈의 밀도
Figure pat00059
는 알려진 값이며, t_S1은 제1 부분 영상 및 엑스선 흡수 특성을 나타내는 [수학식 11]를 이용하여 구한 값이다. [수학식 16]에서의 I는 뼈와 연조직이 공존하는 대상체를 투과하여 감지된 엑스선의 강도 값이므로, 엑스선 촬영 시 측정될 수 있다. 그러므로, [수학식 16]에 있어서, 제2 부분 영상에 대응되는 대상체 영역에서의 뼈의 두께인 t_B2를 제외하면 모두 대입 가능한 값들이 되므로, t_B2를 구할 수 있다.
그리고, t_B2가 구해지면, [수학식 13]에 t_B2 및 이미 획득된 t_S1을 대입하여, 뼈와 연조직이 공존하는 대상체 영역(구체적으로, 제2 부분 영상에 대응되는 대상체 영역)에서의 연조직의 두께인 t_S2를 획득할 수 있다.
전술한 바와 같이, 본 개시의 실시예에서, 영상 처리부(220)는 제2 부분 영상에서의 뼈의 두께 및 연조직의 두께를 모두 구할 수 있다.
도 16 내지 도 18을 참조하여 설명한 방법을 통하여, 엑스선 영상이 이미징한 대상체의 전체 영역에 있어서, 연조직 및 뼈 두께를 측정할 수 있다. 그리고, 본 개시의 실시예는 연조직 및 뼈의 두께에 근거하여 대상체를 형성하는 연조직과 뼈의 3차원적 분포에 대한 정보를 획득할 수 있다. 또한, 연조직 및 뼈의 두께에 근거하여, 연조직 및 뼈 각각의 부피를 획득할 수 있다.
도 20은 본 개시의 다른 실시예에 따른 엑스선 영상 처리 방법을 나타내는 흐름도이다. 도 20에 도시된 엑스선 영상 처리 방법(2000)은 도 2 내지 도 4를 참조하여 설명한 본 개시의 실시예에 따른 엑스선 영상 처리 장치(200, 300 또는 400)를 통하여 수행될 수 있다. 따라서, 엑스선 영상 처리 방법(2000)의 각 단계 동작은 엑스선 영상 처리 장치(200, 300 또는 400)의 각 구성을 통하여 수행될 수 있다. 또한, 엑스선 영상 처리 방법(2000)에 있어서, 도 5 내지 도 19를 참조하여 설명한 엑스선 영상 처리 방법(500, 600, 700, 1300, 또는 1600)에서와 동일한 구성은 동일한 도면 기호를 이용하여 도시하였다. 그러므로, 엑스선 영상 처리 방법(2000)을 설명하는데 있어서, 도 1 내지 도 19에서와 중복되는 설명은 생략한다.
도 20을 참조하면, S1360 단계에서는, 제2 정보 및 제3 정보에 근거하여 제1 엑스선 영상에 대하여 산란 보정을 수행하고, 산란 보정된 제1 엑스선 영상을 생성할 수 있다.
그리고, 엑스선 영상 처리 방법(2000)은 S1360 단계에서 획득된 산란 보정된 제1 엑스선 영상에서, 제1 부분 영상 및 제2 부분 영상을 획득한다(S1615).
그리고, S1615 단계에서 획득된 제1 부분 영상 및 제2 부분 영상에 근거하여, 대상체로부터 제1 물질 및 제2 물질을 각각 분리할 수 있다(S2030). S2030 단계는 영상 처리부(220)에서 수행될 수 있다. S2030 단계의 동작은 도 16 내지 도 19를 참조하여 설명한 물질 분리, 구체적으로, 제1 엑스선 영상 내에 포함되는 제1 부분 영상 및 제2 부분 영상을 이용하여 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하고 제2 물질의 입체적 구조와 관련된 제3 정보를 획득하는 동작에 동일 대응된다. 따라서, 상세한 설명은 생략하도록 한다. 또한, S2030 단계의 동작은 S540 및 S1650 단계를 통하여 획득된 제 2 정보 및 제 3 정보를 갱신하는 동작을 포함할 수 있으며, 갱신 후 획득된 최종 제2 정보 및 최종 제3 정보에 근거하여 물질 분리를 수행하는 동작을 포함할 수 있다.
전술한 바와 같이, 엑스선 영상 처리 방법(2000)은 3차원 카메라에서 획득된 3차원 정보를 이용하여 제1 엑스선 영상의 산란 보정을 수행한 후, 산란 보정된 제1 엑스선 영상을 이용하여 물질 분리를 수행한다. 따라서, 산란 방사선에 대응되는 잡음 성분으로 인하여 발생하는 물질 분리에서의 정확도 감소를 최소화할 수 있다. 그에 따라서, 정확하게 대상체로부터 제1 물질 및 제2 물질 각각의 입체적 구조와 관련된 정보를 획득할 수 있다.
본 개시의 일 또는 다른 실시예에 따른 엑스선 영상 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 또한, 본 개시의 실시예는, 엑스선 영상 처리 방법을 실행하는 명령어들을 포함하는 하나 이상의 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체로 형성될 수 있다.
상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
또한, 전술한 본 개시의 일 또는 다른 실시예에 따른 엑스선 영상 처리 방법은 다중언어로 구성된 문장을 획득하는 동작; 및 다중언어 번역 모델을 이용하여, 상기 다중언어로 구성된 문장에 포함되는 단어들 각각에 대응하는 벡터 값들을 획득하고, 상기 획득한 벡터 값들을 목표 언어에 대응하는 벡터 값들로 변환하며, 상기 변환된 벡터 값들에 기초하여, 상기 목표 언어로 구성된 문장을 획득하는 동작을 수행하도록 하는 프로그램이 저장된 기록매체를 포함하는 컴퓨터 프로그램 제품으로 구현될 수 있다.
이상에서 실시예들에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속한다.
10: 테이블
20: 스탠드
30: 가이드 레일
14, 24: 장착부
40: 이동 캐리지
50: 절첩 가능한 포스트 프레임
80: 서브 유저 인터페이스
100: 엑스선 장치
110: 엑스선 조사부
120: 제어부
140: 통신부
150: 통해 외부 장치
151: 도시된 서버
152: 의료 장치
153; 휴대용 단말
153: 휴대용 단말
180: 워크스테이션
181: 입력부
182: 디스플레이
195: 엑스선 디텍터
200: 엑스선 영상 처리 장치
210: 데이터 획득부
220: 제어부

Claims (20)

  1. 서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상을 획득하는 단계;
    3차원 카메라를 이용하여 상기 대상체에 대한 3차원 정보를 획득하는 단계;
    상기 3차원 정보에 근거하여 상기 대상체의 두께에 대한 제1 정보를 획득하는 단계; 및
    상기 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 상기 대상체로부터 상기 제1 물질을 분리하여 상기 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  2. 제1항에 있어서,
    상기 제1 정보 및 상기 제2 정보에 근거하여, 상기 제2 물질의 입체적 구조와 관련된 제3 정보를 획득하는 단계를 더 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  3. 제1항에 있어서, 상기 제2 정보를 획득하는 단계는
    상기 제1 정보 및 상기 제1 엑스선 영상에서 나타나는 엑스선 흡수 특성에 근거하여, 상기 제2 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  4. 제2항에 있어서,
    상기 제1 물질은 연조직이며,
    상기 제2 물질은 뼈인 것을 특징으로 하는 엑스선 영상 처리 방법.
  5. 제4항에 있어서,
    상기 제2 정보는
    상기 연조직의 두께, 부피, 부피 구성비율, 및 영역별 골밀도 중 적어도 하나를 포함하며,
    상기 제3 정보는
    상기 뼈의 두께, 부피, 부피 구성비율, 및 영역별 골밀도 중 적어도 하나를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  6. 제2항에 있어서,
    상기 제2 정보는
    상기 제1 물질의 두께에 대한 정보를 포함하며,
    상기 제3 정보는
    상기 제2 물질의 두께에 대한 정보를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  7. 제2항에 있어서,
    상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상에 대한 산란 보정을 수행하는 단계를 더 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  8. 제1항에 있어서, 상기 제1 정보를 획득하는 단계는
    상기 3차원 정보에 근거하여, 상기 3차원 카메라로부터 상기 대상체 표면까지의 거리를 측정하는 단계; 및
    상기 표면까지의 거리에 근거하여 상기 대상체의 두께에 대한 상기 제1 정보를 획득하는 단계를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  9. 제2항에 있어서,
    상기 제2 정보 및 상기 제3 정보에 근거하여 상기 제1 엑스선 영상에 대하여 산란 보정을 수행하여, 산란 보정된 상기 제1 엑스선 영상을 획득하는 단계; 및
    상기 산란 보정된 제1 엑스선 영상에 근거하여 상기 제2 정보 및 상기 제3 정보를 갱신하는 단계를 더 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  10. 제9항에 있어서, 상기 산란 보정을 수행하는 단계는
    상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선의 분포를 나타내는 산란 맵(scatter map)을 생성하는 단계; 및
    상기 산란 맵을 이용하여, 상기 제1 엑스선 영상에서 산란 엑스선에 대응되는 잡음 신호를 제거하는 산란 보정을 수행하여 상기 산란 보정된 제1 엑스선 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  11. 제9항에 있어서,
    상기 제2 정보, 및 상기 제3 정보에 근거하여, 상기 대상체를 대상으로 투사 시뮬레이션(projection simulation)을 수행하여 생성된 제1 가상 엑스선 영상을 획득하는 단계; 및
    상기 제1 가상 엑스선 영상과 상기 제1 엑스선 영상 간의 비교 결과에 근거하여, 상기 제2 정보, 상기 제3 정보 및 상기 산란 맵을 갱신할지 여부를 결정하는 단계를 더 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  12. 제11항에 있어서, 상기 제1 가상 엑스선 영상을 획득하는 단계는
    상기 투사 시뮬레이션을 통하여, 입사된 엑스선이 상기 대상체에 대응되는 팬텀(phantom)를 그대로 통과하여 생성되는 투사 영상(Primary Transmission images)을 생성하는 단계; 및
    상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상 내에 존재하는 산란 (scatter) 엑스선의 분포를 나타내는 산란 맵(scatter map)을 생성하는 단계;
    상기 투사 영상과 상기 산란맵을 더하여 상기 제1 가상 엑스선 영상을 획득하는 단계를 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  13. 제1항에 있어서,
    상기 제1 정보, 상기 제2 정보, 상기 제3 정보 중 적어도 하나를 포함하는 사용자 인터페이스 화면을 출력하는 단계를 더 포함하는 것을 특징으로 하는 엑스선 영상 처리 방법.
  14. 제1항에 있어서, 상기 제1 엑스선 영상은
    단일 에너지 대역을 갖는 엑스선을 대상체로 조사하여 획득된 엑스선 영상인 것을 특징으로 하는 엑스선 영상 처리 방법.
  15. 서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상 및 3차원 카메라를 이용하여 획득된 상기 대상체에 대한 3차원 정보를 획득하는 데이터 획득부; 및
    적어도 하나의 인스트럭션을 실행하는 프로세서를 적어도 하나 포함하는 영상 처리부를 포함하며,
    상기 영상 처리부는, 적어도 하나의 인스트럭션을 실행하여,
    상기 3차원 정보에 근거하여 상기 대상체의 두께에 대한 제1 정보를 획득하고, 상기 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 상기 대상체로부터 상기 제1 물질을 분리하여 상기 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하는 것을 특징으로 하는 엑스선 영상 처리 장치.
  16. 제15항에 있어서, 상기 영상 처리부는
    상기 제1 정보 및 상기 제2 정보에 근거하여, 상기 제2 물질의 입체적 구조와 관련된 제3 정보를 획득하는 것을 특징으로 하는 엑스선 영상 처리 장치.
  17. 제15항에 있어서,
    상기 제1 물질은 연조직이며,
    상기 제2 물질은 뼈인 것을 특징으로 하는 엑스선 영상 처리 장치.
  18. 제16항에 있어서, 상기 영상 처리부는
    상기 제2 정보 및 상기 제3 정보에 근거하여, 상기 제1 엑스선 영상에 대한 산란 보정을 수행하는 것을 특징으로 하는 엑스선 영상 처리 장치.
  19. 제15항에 있어서, 상기 영상 처리부는
    상기 3차원 정보에 근거하여, 상기 3차원 카메라로부터 상기 대상체의 표면까지의 거리를 측정하고, 상기 표면까지의 거리에 근거하여 상기 대상체의 두께에 대한 상기 제1 정보를 획득하는 것을 특징으로 하는 엑스선 영상 처리 장치.
  20. 기록매체에 저장된 컴퓨터 프로그램에 있어서,
    서로 다른 제1 물질 및 제2 물질을 포함하는 복수개의 물질들로 형성된 대상체를 이미징한 제1 엑스선 영상을 획득하는 단계;
    3차원 카메라를 이용하여 상기 대상체에 대한 3차원 정보를 획득하는 단계;
    상기 3차원 정보에 근거하여 상기 대상체의 두께에 대한 제1 정보를 획득하는 단계; 및
    상기 제1 정보 및 상기 제1 엑스선 영상에 근거하여, 상기 대상체로부터 상기 제1 물질을 분리하여 상기 제1 물질의 입체적 구조와 관련된 제2 정보를 획득하는 단계를 포함하는 엑스선 영상 처리 방법을 컴퓨터에서 실행시키기 위해서 기록매체에 저장된 컴퓨터 프로그램.
KR1020190013751A 2019-02-01 2019-02-01 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치 KR20200095859A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020190013751A KR20200095859A (ko) 2019-02-01 2019-02-01 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치
EP20153662.0A EP3689241B1 (en) 2019-02-01 2020-01-24 X-ray image processing method and x-ray image processing apparatus
US16/773,317 US11373308B2 (en) 2019-02-01 2020-01-27 X-ray image processing method and X-ray image processing apparatus
CN202010078275.2A CN111513737A (zh) 2019-02-01 2020-02-03 X射线图像处理方法和x射线图像处理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190013751A KR20200095859A (ko) 2019-02-01 2019-02-01 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치

Publications (1)

Publication Number Publication Date
KR20200095859A true KR20200095859A (ko) 2020-08-11

Family

ID=69192003

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190013751A KR20200095859A (ko) 2019-02-01 2019-02-01 엑스선 영상 처리 방법 및 그에 따른 엑스선 영상 처리 장치

Country Status (4)

Country Link
US (1) US11373308B2 (ko)
EP (1) EP3689241B1 (ko)
KR (1) KR20200095859A (ko)
CN (1) CN111513737A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210093676A (ko) * 2020-01-20 2021-07-28 연세대학교 원주산학협력단 3차원 레이저 스캐너를 이용한 단일 에너지 물질 분리 시스템, 장치 및 방법
KR20220034313A (ko) * 2020-09-11 2022-03-18 한국과학기술원 3차원 산업용 컴퓨터 단층 촬영에서 발생하는 산란 보정을 위한 방법 및 장치

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7350519B2 (ja) * 2019-05-29 2023-09-26 キヤノン株式会社 放射線撮影システム、放射線撮影制御装置及びその制御方法、並びに、プログラム
JP7220643B2 (ja) * 2019-10-04 2023-02-10 富士フイルム株式会社 画像処理装置、方法およびプログラム
JP7324115B2 (ja) * 2019-10-11 2023-08-09 富士フイルムヘルスケア株式会社 物質弁別装置、pcct装置および物質弁別方法
TWI785637B (zh) * 2021-06-07 2022-12-01 國立陽明交通大學 預測可靠度的輔助預測系統、方法及電腦程式產品
EP4190245A1 (en) * 2021-12-06 2023-06-07 Koninklijke Philips N.V. Quantitative radiographic imaging using a 3d camera
EP4212090A1 (en) * 2022-01-13 2023-07-19 Siemens Healthcare GmbH Providing key elements of the examination region in an x-ray image
EP4212101A1 (en) * 2022-01-13 2023-07-19 Siemens Healthcare GmbH Providing a complete set of key elements in an x-ray image
CN117115274B (zh) * 2023-10-24 2024-02-09 腾讯科技(深圳)有限公司 三维信息的确定方法、装置、设备及存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6683934B1 (en) 2000-06-05 2004-01-27 General Electric Company Dual energy x-ray imaging system and method for radiography and mammography
US7068826B2 (en) * 2002-01-28 2006-06-27 Ge Medical Systems Global Technology Company, Llc Automatic selection of the log-subtraction decomposition parameters for dual energy chest radiography
US7415146B2 (en) 2002-04-12 2008-08-19 Ge Medical Systems Global Technology Company, Llc Method and apparatus to determine bone mineral density utilizing a flat panel detector
US7295691B2 (en) 2002-05-15 2007-11-13 Ge Medical Systems Global Technology Company, Llc Computer aided diagnosis of an image set
CN1842294A (zh) * 2003-07-01 2006-10-04 色诺根公司 多模式内部成像
DE102004029009A1 (de) * 2004-06-16 2006-01-19 Siemens Ag Vorrichtung und Verfahren für die Streustrahlungskorrektur in der Computer-Tomographie
JP5010859B2 (ja) 2005-12-21 2012-08-29 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像生成装置
JP5389965B2 (ja) 2005-12-21 2014-01-15 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 散乱線補正方法およびx線ct装置
JP4604101B2 (ja) * 2008-03-26 2010-12-22 株式会社日立製作所 画像情報作成方法,断層撮影装置の断層画像情報作成方法及び断層撮影装置
KR20090079867A (ko) 2009-07-02 2009-07-22 (주)이우테크놀로지 엑스레이 영상 획득 방법
KR20110032047A (ko) 2009-09-22 2011-03-30 삼성전자주식회사 멀티-에너지 x선 시스템 및 멀티-에너지 x선 물질 분리 이미지 처리 장치와, 멀티-에너지 x선 시스템의 물질 분리 이미지 처리 방법
JP5640280B2 (ja) 2011-01-12 2014-12-17 国立大学法人広島大学 骨粗鬆症診断支援装置及び骨粗鬆症診断支援プログラム
KR20130055510A (ko) 2011-11-18 2013-05-28 삼성전자주식회사 디지털 단층촬영 시스템에서의 엑스선 산란추정과 복원 방법 및 장치
DE102012211892B4 (de) * 2012-07-09 2015-03-19 Siemens Aktiengesellschaft Verfahren zur Extraktion eines Datensatzes aus einem medizinischen Bilddatensatz sowie medizinische Bildaufnahmeeinrichtung und Computerprogramm
WO2016001135A1 (en) * 2014-06-30 2016-01-07 Agfa Healthcare Method and system for configuring an x-ray imaging system
KR102372165B1 (ko) * 2015-01-22 2022-03-11 삼성전자주식회사 엑스선 영상 장치, 영상 처리 장치 및 영상 처리 방법
DE102015204450A1 (de) * 2015-03-12 2016-09-15 Siemens Healthcare Gmbh Verfahren zur Erzeugung eines Ergebnisbildes zu einer vorgebbaren, virtuellen Röntgenquantenenergieverteilung, Computerprogramm, Datenträger sowie Röntgenbildaufnahmevorrichtung
KR20160129302A (ko) 2015-04-30 2016-11-09 (주)나눔테크 골밀도 측정 시스템
FR3035785B1 (fr) 2015-05-07 2017-06-02 Arts Procede d'estimation de la repartition de la densite minerale osseuse dans au moins une partie de squelette d'un individu
KR20180086709A (ko) * 2017-01-23 2018-08-01 삼성전자주식회사 엑스선 영상 장치 및 그 제어 방법
EP3403583A1 (en) * 2017-05-19 2018-11-21 Koninklijke Philips N.V. Improved geometry measurements in x-ray image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210093676A (ko) * 2020-01-20 2021-07-28 연세대학교 원주산학협력단 3차원 레이저 스캐너를 이용한 단일 에너지 물질 분리 시스템, 장치 및 방법
KR20220034313A (ko) * 2020-09-11 2022-03-18 한국과학기술원 3차원 산업용 컴퓨터 단층 촬영에서 발생하는 산란 보정을 위한 방법 및 장치

Also Published As

Publication number Publication date
CN111513737A (zh) 2020-08-11
US11373308B2 (en) 2022-06-28
EP3689241B1 (en) 2021-06-30
US20200250824A1 (en) 2020-08-06
EP3689241A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
EP3689241B1 (en) X-ray image processing method and x-ray image processing apparatus
CN111938678B (zh) 一种成像系统和方法
EP3360483B1 (en) Method and system for dose-optimized computed tomography scanning of a target organ
CN107170031B (zh) 利用柔性压缩桨的胸部断层摄影
US9947101B2 (en) Radiographic image analysis device and method, and recording medium having program recorded therein
EP3804624B1 (en) Synthetic parameterized computed tomography from surface data in medical imaging
KR101524085B1 (ko) 의료 영상 제공 장치 및 방법
EP3685750A1 (en) X-ray image processing method and x-ray image processing apparatus using the same
EP3203914B1 (en) Radiation dose applied to different anatomical stages
CN110522466A (zh) 确定患者重量和/或体重指数的方法和装置
JP2021524631A (ja) 医用画像変換
KR20240013724A (ko) 다중 펄스 x-선 소스 이동 단층합성 영상화 시스템을 사용한 인공 지능 훈련
JP2018110615A (ja) 画像処理装置および画像処理方法
JP2011200542A (ja) 患者位置決め方法および患者位置決めシステム
US11679276B2 (en) Real-time anatomic position monitoring for radiotherapy treatment control
US20220347493A1 (en) Real-time anatomic position monitoring in radiotherapy using machine learning regression
JP6373952B2 (ja) 放射線画像解析装置および方法並びにプログラム
EP4279126A1 (en) Temporal prediction in anatomic position monitoring using artificial intelligence modeling
CN110678123B (zh) 改进的x射线图像中的几何测量
JP2019013449A (ja) 放射線撮影装置および放射線画像検出方法

Legal Events

Date Code Title Description
A201 Request for examination
WITB Written withdrawal of application