KR20170021189A - 의료영상 표시장치 및 의료영상 처리방법 - Google Patents

의료영상 표시장치 및 의료영상 처리방법 Download PDF

Info

Publication number
KR20170021189A
KR20170021189A KR1020160044817A KR20160044817A KR20170021189A KR 20170021189 A KR20170021189 A KR 20170021189A KR 1020160044817 A KR1020160044817 A KR 1020160044817A KR 20160044817 A KR20160044817 A KR 20160044817A KR 20170021189 A KR20170021189 A KR 20170021189A
Authority
KR
South Korea
Prior art keywords
medical image
image
entity
anatomical
medical
Prior art date
Application number
KR1020160044817A
Other languages
English (en)
Other versions
KR102522539B1 (ko
Inventor
남우현
오지훈
박용섭
이재성
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2016/006087 priority Critical patent/WO2017030276A1/ko
Priority to EP16837218.3A priority patent/EP3338625B1/en
Priority to US15/753,051 priority patent/US10682111B2/en
Publication of KR20170021189A publication Critical patent/KR20170021189A/ko
Application granted granted Critical
Publication of KR102522539B1 publication Critical patent/KR102522539B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7445Display arrangements, e.g. multiple display units
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 의료영상 표시장치 및 의료영상 처리방법에 관한 것으로서, 의료영상 표시장치는, 적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 디스플레이부와; 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 해부학적 개체에 대응하는 참조영역정보를 추출하고, 추출된 참조영역정보에 기초하여 제1 의료영상에서 해부학적 개체에 대응하는 영역을 검출하고, 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 디스플레이부를 제어하는 적어도 하나의 프로세서를 포함한다. 이에 의하여, 비 조영 의료영상에서 식별되지 않았던 해부학적 개체에 대한 구분 표시가 가능하므로, 조영제 사용이 어려운 환자들도 림프노드 추적 검사가 가능하고, 각종 질환의 조기진단이 가능할 뿐 아니라 진단 정확도가 보다 향상될 수 있다.

Description

의료영상 표시장치 및 의료영상 처리방법{MEDICAL IMAGE DISPLAYING APPARATUS AND MEDICAL IMAGE PROCESSING METHOD THEREOF}
본 발명은 의료영상을 포함하는 화면을 디스플레이 하는 의료영상 표시장치 및 그에 따른 의료영상 처리방법에 관한 것이다.
의료영상 표시장치는 대상체의 내부 구조를 영상으로 획득하기 위한 장비이다. 의료영상 표시장치는 비침습 검사 장치로서, 신체 내의 구조적 세부사항, 내부 조직 및 유체의 흐름 등을 촬영 및 처리하여 사용자에게 보여준다. 의사 등의 사용자는 의료영상 표시장치에서 출력되는 의료영상을 이용하여 환자의 건강 상태 및 질병을 진단할 수 있다.
의료영상 표시장치로는 자기 공명 영상을 제공하기 위한 자기 공명 영상(MRI: magnetic resonance imaging) 장치, 컴퓨터 단층 촬영(CT: Computed Tomography) 장치, 엑스선(X-ray) 촬영 장치, 및 초음파(Ultrasound) 장치 등이 있다.
자기 공명 영상(MRI) 장치는 자기장을 이용해 피사체를 촬영하는 장치로, 뼈는 물론 디스크, 관절, 신경 인대 등을 원하는 각도에서 입체적으로 보여주기 때문에 정확한 질병 진단을 위해서 널리 이용되고 있다.
자기 공명 영상 장치는 RF 코일들을 포함하는 고주파 멀티 코일, 영구자석 및 그래디언트 코일 등을 이용하여 자기 공명(MR: magnetic resonance) 신호를 획득한다. 그리고, 자기 공명 신호(MR 신호)를 샘플링하여 자기 공명 영상을 복원한다.
컴퓨터 단층 촬영(CT) 장치는 대상체에 대한 단면 영상을 제공할 수 있고, 일반적인 엑스선 장치에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)가 겹치지 않게 표현할 수 있다는 장점이 있어서, 질병의 정밀한 진단을 위하여 널리 이용된다.
컴퓨터 단층 촬영 장치는 대상체로 엑스선을 조사하며, 대상체를 통과한 엑스선을 감지한다. 그리고, 감지된 엑스선을 이용하여 영상을 복원한다.
엑스선 촬영 장치는 대상체에 엑스선을 조사하고 대상체를 투과한 엑스선을 검출하는 방식으로 대상체 내부를 영상화한다.
초음파 장치는 초음파 신호를 대상체에 송신하고 대상체로부터 반사되는 초음파 신호를 수신하여 대상체내의 관심객체에 대한 2차원 또는 3차원 초음파 영상을 형성한다.
전술한 바와 같이, 다양한 의료영상 표시장치에 의해서 획득된 의료영상들은 의료영상 표시장치의 종류 및 촬영 방식에 따라서 대상체를 다양한 방식으로 표현한다.
의사는 의료영상을 판독하여 환자의 질병 또는 건강에 이상에 생겼는지를 판단한다. 따라서, 의사는 환자를 진단하기에 적절한 의료영상을 선택하여 판독할 수 있도록, 의사의 진단을 용이하게 할 수 있는 의료영상 표시장치를 제공할 필요가 있다.
본 발명 일실시예에 따른 의료영상 표시장치는, 적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 디스플레이부와; 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 해부학적 개체에 대응하는 참조영역정보를 추출하고, 추출된 참조영역정보에 기초하여 제1 의료영상에서 해부학적 개체에 대응하는 영역을 검출하고, 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 디스플레이부를 제어하는 적어도 하나의 프로세서를 포함할 수 있다. 이에 의해, 참조영상으로부터 추출된 정보를 이용하여 의료영상에서 식별되지 않았던 개체에 대한 구분 표시 기능이 제공된다.
프로세서는, 제1 의료영상과 제2 의료영상을 정합하여 제1 의료영상에서 검출된 해부학적 개체에 대한 표시영역정보를 포함하는 제3 의료영상을 생성하고, 표시영역정보에 기초하여 생성된 제3 의료영상에서 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 디스플레이부를 제어할 수 있다. 이에, 의료정합을 이용하여 생성된 영상에 의해 개체에 대한 구분 표시가 가능하게 된다.
해부학적 개체는 복수이며, 디스플레이부는, 복수의 해부학적 개체의 영역들이 각각 구분하여 표시되도록 할 수 있다. 이에, 식별되지 않았던 개체들에 대한 구분 표시가 가능하므로, 진단에 편의를 제공한다.
복수의 해부학적 개체는, 혈관 및 림프노드 중 적어도 하나를 포함할 수 있다. 이에, 중요 임상 판정 요소인 혈관과 림프노드가 구분되어 표시되는 효과가 발생한다.
제1 의료영상은 비 조영 의료영상일 수 있다. 이에, 조영제 부작용이 우려되는 대상체에 의해 촬영된 비 조영 의료영상에서 해부학적 개체의 구분 표시가 가능하다.
제2 의료영상은 조영 증강된 의료영상일 수 있다. 이에, 영역 분할에 의한 개체 구분이 용이한 조영 증강된 의료영상을 참조영상으로 활용할 수 있다.
제2 의료영상은, 제1 의료영상을 획득한 대상체를 타 시점에 촬상하여 획득된 의료영상일 수 있다. 이에, 환자의 과거 히스토리를 현재의 진단에 활용 가능하다.
디스플레이부에서, 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시될 수 있다. 이에, 사용자의 취항에 따른 다양한 구분표시 기능이 제공된다.
해부학적 개체의 영역의 구분 표시는 사용자 선택에 의해 활성화 또는 비활성화 가능할 수 있다. 이에, 개체 구분 표시 기능에 대한 사용자 선택 편의를 돕는다.
사용자 입력을 수신하는 사용자 입력부를 더 포함하며, 프로세서는, 사용자 입력에 응답하여 해부학적 개체의 구분 표시의 레벨을 조정하도록 디스플레이부를 제어할 수 있다. 이에, 사용자의 취향에 부합하는 기능 제공이 가능하다.
프로세서는, 해부학적 개체의 영역에서 병변 확장 영역을 더 검출하고, 해부학적 개체의 영역 내에서 검출된 병변 확장 영역이 식별 가능하게 표시되도록 디스플레이부를 제어할 수 있다. 이에, 병변의 진행 상황에 대한 정보가 더 제공됨으로써 병변 진단의 편의를 제공한다.
프로세서는, 제2 의료영상의 픽셀들의 밝기 값을 이용하여 해부학적 개체에 대응하는 참조영역정보를 추출할 수 있다. 이에, 기저장된 영상의 정보를 효율적으로 활용하여, 필요한 정보를 취득할 수 있다.
프로세서는, 소정 변환모델 파라미터를 사용하여 제1 의료영상과 제2 의료영상의 유사도 측정 함수의 결과값이 최대가 되도록 영상 정합을 수행할 수 있다. 이에, 영상정합 프로세스의 결과 생성된 정합된 영상의 정확도가 향상된다.
프로세서는, 소정 변환모델 파라미터를 사용하여 제1 의료영상과 제2 의료영상의 비용 함수의 결과값이 최소가 되도록 영상 정합을 수행할 수 있다. 이에, 영상정합 프로세스의 결과 생성된 정합된 영상의 오류 가능성이 낮아진다.
프로세서는, 제1 의료영상과 제2 의료영상의 좌표계를 매핑하고, 좌표계가 매핑된 제1 의료영상 및 제2 의료영상에 대해, 제2 의료영상의 영상 특성을 유지한 상태로 제1의료영상에 매칭시키는 동형정합을 수행할 수 있다. 이에, 림프노드와 혈관이 구분 표시되는 정합 영상이 제공된다.
프로세서는, 동형정합이 수행된 제1 의료영상 및 제2 의료영상에 대해, 제2 의료영상의 영상 특성을 변형시켜 제1의료영상에 완전히 매칭시키는 이형정합을 더 수행할 수 있다. 이에, 림프노드 내에서 병변의 확장에 대한 정량과 결과까지 사용자에게 제공 가능하다.
한편, 본 발명 일실시예에 따른 의료영상 처리방법은, 적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 단계와; 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 해부학적 개체에 대응하는 참조영역정보를 추출하는 단계와; 추출된 참조영역정보에 기초하여 제1 의료영상에서 해부학적 개체에 대응하는 영역을 검출하고, 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 단계를 포함할 수 있다. 이에 의해, 참조영상으로부터 추출된 정보를 이용하여 의료영상에서 식별되지 않았던 개체에 대한 구분 표시 기능이 제공된다.
제1 의료영상과 제2 의료영상을 정합하여 제1 의료영상에서 검출된 해부학적 개체에 대한 표시영역정보를 포함하는 제3 의료영상을 생성하는 단계를 더 포함하며, 구분하여 표시되도록 하는 단계는, 표시영역정보에 기초하여 생성된 제3 의료영상에서 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 할 수 있다. 이에, 의료정합을 이용하여 생성된 영상에 의해 개체에 대한 구분 표시가 가능하게 된다.
해부학적 개체는 복수이며, 구분하여 표시되도록 하는 단계는, 복수의 해부학적 개체의 영역들이 각각 구분하여 표시되도록 할 수 있다. 이에, 식별되지 않았던 개체들에 대한 구분 표시가 가능하므로, 진단에 편의를 제공한다.
복수의 해부학적 개체는, 혈관 및 림프노드 중 적어도 하나를 포함할 수 있다. 이에, 중요 임상 판정 요소인 혈관과 림프노드가 구분되어 표시되는 효과가 발생한다.
제1 의료영상은 비 조영 의료영상일 수 있다. 이에, 조영제 부작용이 우려되는 대상체에 의해 촬영된 비 조영 의료영상에서 해부학적 개체의 구분 표시가 가능하다.
제2 의료영상은 조영 증강된 의료영상일 수 있다. 이에, 영역 분할에 의한 개체 구분이 용이한 조영 증강된 의료영상을 참조영상으로 활용할 수 있다.
제2 의료영상은, 제1 의료영상을 획득한 대상체를 타 시점에 촬상하여 획득된 의료영상일 수 있다. 이에, 환자의 과거 히스토리를 현재의 진단에 활용 가능하다.
구분하여 표시되도록 하는 단계는, 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해, 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 할 수 있다. 이에, 사용자의 취항에 따른 다양한 구분표시 기능이 제공된다.
해부학적 개체의 영역의 구분 표시를 활성화 또는 비활성화하는 사용자 선택을 수신하는 단계를 더 포함할 수 있다. 이에, 개체 구분 표시 기능에 대한 사용자 선택 편의를 돕는다.
해부학적 개체의 구분 표시의 레벨을 조정하는 사용자 입력을 수신하는 단계를 더 포함할 수 있다. 이에, 사용자의 취향에 부합하는 기능 제공이 가능하다.
구분하여 표시된 해부학적 개체의 영역에서 병변 확장 영역을 검출하고, 해부학적 개체의 영역 내에서 검출된 병변 확장 영역이 식별 가능하게 표시되도록 하는 단계를 더 포함할 수 있다. 이에, 병변의 진행 상황에 대한 정보가 더 제공됨으로써 병변 진단의 편의를 제공한다.
참조영역정보를 추출하는 단계는, 제2 의료영상의 픽셀들의 밝기 값을 이용하여 해부학적 개체에 대응하는 참조영역정보를 추출할 수 있다. 이에, 기저장된 영상의 정보를 효율적으로 활용하여, 필요한 정보를 취득할 수 있다.
제3 의료영상을 생성하는 단계는, 소정 변환모델 파라미터를 사용하여 제1 의료영상과 제2 의료영상의 유사도 측정 함수의 결과값이 최대가 되도록 영상 정합을 수행할 수 있다. 이에, 영상정합 프로세스의 결과 생성된 정합된 영상의 정확도가 향상된다.
제3 의료영상을 생성하는 단계는, 소정 변환모델 파라미터를 사용하여 제1 의료영상과 제2 의료영상의 비용 함수의 결과값이 최소가 되도록 영상 정합을 수행할 수 있다. 이에, 영상정합 프로세스의 결과 생성된 정합된 영상의 오류 가능성이 낮아진다.
제3 의료영상을 생성하는 단계는, 제1 의료영상과 제2 의료영상의 좌표계를 매핑하는 단계와; 좌표계가 매핑된 제1 의료영상 및 제2 의료영상에 대해, 제2 의료영상의 영상 특성을 유지한 상태로 제1의료영상에 매칭시키는 동형정합을 수행하는 단계를 포함할 수 있다. 이에, 림프노드와 혈관이 구분 표시되는 정합 영상이 제공된다.
제3 의료영상을 생성하는 단계는, 동형정합이 수행된 제1 의료영상 및 제2 의료영상에 대해, 제2 의료영상의 영상 특성을 변형시켜 제1의료영상에 완전히 매칭시키는 이형정합을 수행하는 단계를 더 포함할 수 있다. 이에, 림프노드 내에서 병변의 확장에 대한 정량과 결과까지 사용자에게 제공 가능하다.
한편, 본 발명 일실시예에 따른 컴퓨터가 읽을 수 있는 프로그램으로서 의료영상 처리방법을 수행하는 프로그램이 기록된 기록매체에서, 의료영상 처리방법은, 적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 단계와; 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 해부학적 개체에 대응하는 참조영역정보를 추출하는 단계와; 추출된 참조영역정보에 기초하여 제1 의료영상에서 해부학적 개체에 대응하는 영역을 검출하고, 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 단계를 포함할 수 있다. 이에 의해, 참조영상으로부터 추출된 정보를 이용하여 의료영상에서 식별되지 않았던 개체에 대한 구분 표시 기능이 제공된다.
제1 의료영상과 제2 의료영상을 정합하여 제1 의료영상에서 검출된 해부학적 개체에 대한 표시영역정보를 포함하는 제3 의료영상을 생성하는 단계를 더 포함하며, 구분하여 표시되도록 하는 단계는, 표시영역정보에 기초하여 생성된 제3 의료영상에서 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 할 수 있다. 이에, 의료정합을 이용하여 생성된 영상에 의해 개체에 대한 구분 표시가 가능하게 된다.
해부학적 개체는 복수이며, 구분하여 표시되도록 하는 단계는, 복수의 해부학적 개체의 영역들이 각각 구분하여 표시되도록 할 수 있다. 이에, 식별되지 않았던 개체들에 대한 구분 표시가 가능하므로, 진단에 편의를 제공한다.
복수의 해부학적 개체는, 혈관 및 림프노드 중 적어도 하나를 포함할 수 있다. 이에, 중요 임상 판정 요소인 혈관과 림프노드가 구분되어 표시되는 효과가 발생한다.
제1 의료영상은 비 조영 의료영상일 수 있다. 이에, 조영제 부작용이 우려되는 대상체에 의해 촬영된 비 조영 의료영상에서 해부학적 개체의 구분 표시가 가능하다.
제2 의료영상은 조영 증강된 의료영상일 수 있다. 이에, 영역 분할에 의한 개체 구분이 용이한 조영 증강된 의료영상을 참조영상으로 활용할 수 있다.
제2 의료영상은, 제1 의료영상을 획득한 대상체를 타 시점에 촬상하여 획득된 의료영상일 수 있다. 이에, 환자의 과거 히스토리를 현재의 진단에 활용 가능하다.
구분하여 표시되도록 하는 단계는, 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해, 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시될 수 있다. 이에, 사용자의 취항에 따른 다양한 구분표시 기능이 제공된다.
해부학적 개체의 영역의 구분 표시를 활성화 또는 비활성화하는 사용자 선택을 수신하는 단계를 더 포함할 수 있다. 이에, 개체 구분 표시 기능에 대한 사용자 선택 편의를 돕는다.
해부학적 개체의 구분 표시의 레벨을 조정하는 사용자 입력을 수신하는 단계를 더 포함할 수 있다. 이에, 사용자의 취향에 부합하는 기능 제공이 가능하다.
구분하여 표시된 해부학적 개체의 영역에서 병변 확장 영역을 검출하고, 해부학적 개체의 영역 내에서 검출된 병변 확장 영역이 식별 가능하게 표시되도록 하는 단계를 더 포함할 수 있다. 이에, 병변의 진행 상황에 대한 정보가 더 제공됨으로써 병변 진단의 편의를 제공한다.
참조영역정보를 추출하는 단계는, 제2 의료영상의 픽셀들의 밝기 값을 이용하여 해부학적 개체에 대응하는 참조영역정보를 추출할 수 있다. 이에, 기저장된 영상의 정보를 효율적으로 활용하여, 필요한 정보를 취득할 수 있다.
제3 의료영상을 생성하는 단계는, 소정 변환모델 파라미터를 사용하여 제1 의료영상과 제2 의료영상의 유사도 측정 함수의 결과값이 최대가 되도록 영상 정합을 수행할 수 있다. 이에, 영상정합 프로세스의 결과 생성된 정합된 영상의 정확도가 향상된다.
제3 의료영상을 생성하는 단계는, 소정 변환모델 파라미터를 사용하여 제1 의료영상과 제2 의료영상의 비용 함수의 결과값이 최소가 되도록 영상 정합을 수행할 수 있다. 이에, 영상정합 프로세스의 결과 생성된 정합된 영상의 오류 가능성이 낮아진다.
제3 의료영상을 생성하는 단계는, 제1 의료영상과 제2 의료영상의 좌표계를 매핑하는 단계와; 좌표계가 매핑된 제1 의료영상 및 제2 의료영상에 대해, 제2 의료영상의 영상 특성을 유지한 상태로 제1의료영상에 매칭시키는 동형정합을 수행하는 단계를 포함할 수 있다. 이에, 림프노드와 혈관이 구분 표시되는 정합 영상이 제공된다.
제3 의료영상을 생성하는 단계는, 동형정합이 수행된 제1 의료영상 및 제2 의료영상에 대해, 제2 의료영상의 영상 특성을 변형시켜 제1의료영상에 완전히 매칭시키는 이형정합을 수행하는 단계를 더 포함할 수 있다. 이에, 림프노드 내에서 병변의 확장에 대한 정량과 결과까지 사용자에게 제공 가능하다.
도 1은 본 발명의 일 실시예에 따른 의료영상 표시장치를 설명하기 위한 도면이며,
도 2는 본 발명 일 실시예에 의한 MRI 장치를 개략적으로 도시한 도면이며,
도 3은 본 발명 일실시예에 의한 CT 장치를 도시한 도면이며,
도 4는 도 3의 CT 장치의 구성을 개략적으로 도시한 도면이며,
도 5는 네트워크 시스템에서 외부와 통신을 수행하는 통신부의 구성을 간략하게 도시한 도면이며,
도 6은 본 발명 일 실시예에 따른 제1 의료 장치, 제2 의료 장치 및 의료영상 정합장치를 포함하는 시스템을 도시한 도면이며,
도 7은 흉부영역의 림프노드 및 혈관분포를 개념적으로 도시한 도면이며,
도 8은 흉부영역에 대해 촬영된 조영 증강 CT 영상을 도시한 도면이며,
도 9는 흉부영역에 대해 촬영된 비 조영 CT 영상을 도시한 도면이며,
도 10은 본 발명 일실시예에 따른 의료영상 표시장치의 구성을 도시한 블록도이며,
도 11은 도 10의 영상처리부의 구성을 도시한 블록도이며,
도 12는 본 발명 일실시예에 따른 제1 의료영상을 도시한 도면이며,
도 13은 본 발명 일실시예에 따른 제2 의료영상을 도시한 도면이며,
도 14는 개체가 추출된 제2 의료영상을 도시한 도면이며,
도 15는 본 실시예에 따른 영상 정합 과정을 설명하기 위한 도면이며,
도 16은 동형정합 프로세스를 개념적으로 도시한 도면이며,
도 17은 이형정합 프로세스를 개념적으로 도시한 도면이며,
도 18은 본 발명 실시예에서 정합 프로세스를 수행하는 과정들을 도시한 흐름도이며,
도 19는 본 발명 일실시예에 따른 제3 의료영상을 도시한 도면이며,
도 20은 제4 의료영상을 도시한 도면이며,
도 21은 도 20에서 일부 개체 영역을 확대하여 도시한 도면이며,
도 22는 본 발명 일 실시예에서 의료영상 표시장치에서 의료 진단 기능을 가지는 어플리케이션의 구동에 따라 표시되는 화면을 도시한 도면이며,
도 23 내지 도 26은 본 발명의 실시예에 따른 의료영상 표시장치에서 영상 정합을 진단에 활용하는 다양한 예시들을 도시한 도면들이며,
도 27은 본 발명 일실시예에 의한 의료영상 처리방법을 도시한 흐름도이다.
이하, 첨부한 도면을 참고로 하여 본 발명의 실시예들에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 본 발명은 여기에서 설명하는 실시예들에 한정되지 않으며, 여러 가지 상이한 형태로 구현될 수 있다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
또한, 실시예에서 “포함하다” 또는 “가지다”와 같은 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소 또는 이들의 조합이 존재함을 지정하기 위한 것이며, 하나 이상의 다른 특징, 숫자, 단계, 동작, 구성요소 또는 이들의 조합이 존재하거나 부가되는 가능성을 배제하는 것은 아니다.
명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.
본 명세서에서 "영상"은 이산적인 영상 요소들(예를 들어, 2차원 영상에 있어서의 픽셀들(pixel) 및 3차원 영상에 있어서의 복셀들(voxel)로 구성된 다차원(multi-dimensional) 데이터를 의미할 수 있다. 예를 들어, 영상은 X-ray, CT, MRI, 초음파 및 다른 의료영상 시스템에 의해 획득된 대상체의 의료영상 등을 포함할 수 있다.
또한, 본 명세서에서 "대상체(object)"는 사람 또는 동물, 또는 사람 또는 동물의 일부를 포함할 수 있다. 예를 들어, 대상체는 간, 심장, 자궁, 뇌, 유방, 복부 등의 장기, 또는 혈관을 포함할 수 있다. 또한, "대상체"는 팬텀(phantom)을 포함할 수도 있다. 팬텀은 생물의 밀도와 실효 원자 번호에 아주 근사한 부피를 갖는 물질을 의미하는 것으로, 신체와 유사한 성질을 갖는 구형(sphere)의 팬텀을 포함할 수 있다.
또한, 본 명세서에서 "사용자"는 의료 전문가로서 의사, 간호사, 임상 병리사, 의료영상 전문가 등이 될 수 있으며, 의료 장치를 수리하는 기술자가 될 수 있으나, 이에 한정되지 않는다.
이하에서는 도면과 관련하여 본 발명을 명확하게 설명하기 위해서 본 발명의 구성과 직접적으로 관련되지 않은 부분은 설명을 생략할 수 있으며, 명세서 전체를 통하여 동일 또는 유사한 구성요소에 대해서는 동일한 참조부호를 부여하기로 한다.
도 1은 본 발명의 일 실시예에 따른 의료영상 표시장치(100)를 설명하기 위한 도면이다.
본 발명의 일 실시예에 의하면, 의료영상 표시장치(100)는 의료영상을 획득하고, 화면에 의료영상을 표시하는 장치일 수 있다. 예를 들어, 의료영상 표시장치(100)는, 도 1에 도시된 바와 같이, 자기 공명 영상 장치(이하 MRI 장치 라고도 한다)(101), 컴퓨터 단층 촬영 장치(이하 CT 장치 라고도 한다)(102), 엑스선(X-ray, 이하 X선 또는 엑스레이 라고도 한다) 촬영 장치(도시되지 아니함), 혈관 조영 검사(angiography) 장치(도시되지 아니함), 초음파 (ultrasound) 장치(103) 등이 있을 수 있으나, 이에 한정되는 것은 아니다.
MRI 장치(101)는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체의 단층 부위에 대한 이미지를 획득하는 기기이다.
CT 장치(102)는 대상체에 대하여 단면 영상을 제공할 수 있으므로, 일반적인 엑스선 촬영 장치에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)를 겹치지 않게 표현할 수 있다는 장점이 있다. CT 장치(102)는, 예를 들어, 2mm 두께 이하의 영상을 초당 수십, 수백 장씩 획득하여 가공함으로써 대상체에 대하여 비교적 정확한 단면 영상을 제공할 수 있다.
엑스선 촬영 장치는, 엑스선을 인체에 투과하여, 인체 내부 구조물을 영상화하는 장치를 의미한다. 혈관 조영 검사 장치는, 카테터라고 하는 2mm 내외의 가느다란 관을 통해 조영제가 주입된 피검사자의 혈관(동맥, 정맥)을 엑스선을 통해서 볼 수 있게 하는 장치이다.
초음파 장치(103)는, 대상체의 체표로부터 체내의 소정 부위를 향하여 초음파 신호를 전달하고, 체내의 조직에서 반사된 초음파 신호(이하, 초음파 에코신호 라고도 한다)의 정보를 이용하여 연부조직의 단층이나 혈류에 관한 이미지를 얻는 장치를 의미한다.
본 발명의 일 실시예에 의하면, 의료영상 표시장치(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 본 명세서에서 기술되는 의료영상 표시장치(100)는 고정식 단말뿐만 아니라 이동식 단말 형태로도 구현될 수 있다. 이동식 단말의 일례로 스마트폰, 스마트패드, 태블릿 PC, 랩탑 컴퓨터, PDA 등이 있을 수 있다.
본 발명의 일 실시예에 의하면, 의료영상 표시장치(100)는, 의료영상 정보 시스템(PACS: Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 의료영상 데이터를 주고받을 수 있다. 또한, 의료영상 표시장치(100)는, 의료용 디지털 영상 및 통신(DICOM: Digital Imaging and Communications in Medicine) 표준에 따라 서버 등과 데이터 통신을 수행할 수 있다.
본 발명의 일 실시예에 의하면, 의료영상 표시장치(100)는, 터치 스크린을 포함할 수도 있다. 터치스크린은 터치 입력 위치, 터치된 면적뿐만 아니라 터치 입력 압력까지도 검출할 수 있도록 구성될 수 있다. 또한, 터치 스크린은 직접 터치(real-touch) 뿐만 아니라 근접 터치(proximity touch)도 검출될 수 있도록 구성될 수 있다.
본 명세서에서 직접 터치(real-touch) 라 함은 화면에 실제로 사용자의 신체(예를 들어, 손가락) 또는 터치 도구로서 마련되는 터치펜(예를 들어, 포인팅 디바이스, 스타일러스, 햅틱 펜(haptic pen), 전자펜 등)이 터치된 경우를 말하고, 근접 터치(proximity-touch) 라 함은 사용자의 신체 또는 터치 도구가 화면에 실제로 터치는 되지 않고, 화면으로부터 소정 거리 떨어져 접근된 경우(예를 들어, 검출가능한 간격이 30 mm 이하의 호버링(hovering))를 말한다.
터치 스크린은 예를 들면, 저항막(resistive) 방식, 정전 용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(acoustic wave) 방식으로 구현될 수 있다.
본 발명의 일 실시예에 의하면, 의료영상 표시장치(100)는, 터치 스크린을 통해 의료영상에 대한 사용자의 티치 입력으로서, 제스처 입력을 감지할 수 있다.
본 명세서에서 기술되는 사용자의 터치 입력에는 탭(tap), 탭보다 강하게 터치하는 클릭(click), 터치 앤 홀드(touch and hold), 더블 탭(double tap), 더블 클릭(double click), 터치를 유지한 상태로 소정 거리를 이동하는 드래그(drag), 드래그 앤 드롭(drag and drop), 슬라이드(slide), 플리킹(flicking), 패닝(panning), 스와이프(swipe), 핀치(pinch) 등을 모두 포함한다. 드래그, 슬라이드, 플리킹, 스와이프 등의 입력은 터치스크린에 손가락(또는 터치펜)이 닿는 프레스(press), 소정 거리의 이동 및 터치스크린으로부터의 릴리즈(release)로 구성될 수 있으며, 직선 또는 곡선 형태의 이동을 모두 포함한다. 상기의 다양한 터치 입력들을 제스처 입력에 포함된다
본 발명의 일 실시예에 의하면, 의료영상 표시장치(100)는, 의료영상을 제어하기 위한 버튼 중 일부 또는 전부를 GUI(graphical user interface) 형태로 제공할 수 있다.
도 2는 본 발명 일실시예에 의한 MRI 장치(101)를 개략적으로 도시한 도면이다.
본 실시예에서 자기 공명 영상 (MRI: Magnetic Resonance Image) 이란 핵자기 공명 원리를 이용하여 획득된 대상체에 대한 영상을 의미한다.
MRI 장치(101)는 특정 세기의 자기장에서 발생하는 RF(Radio Frequency) 신호에 대한 MR(Magnetic Resonance) 신호의 세기를 명암 대비로 표현하여 대상체의 단층 부위에 대한 영상을 획득하는 기기이다. 예를 들어, 대상체를 강력한 자기장 속에 눕힌 후 특정의 원자핵(예컨대, 수소 원자핵 등)만을 공명시키는 RF 신호를 대상체에 순간적으로 조사했다가 중단하면 상기 특정의 원자핵에서 MR 신호가 방출되는데, MRI 장치(101)는 이 MR 신호를 수신하여 MR 영상을 획득할 수 있다. MR 신호는 대상체로부터 방사되는 RF 신호를 의미한다. MR 신호의 크기는 대상체에 포함된 소정의 원자(예컨대, 수소 등)의 농도, 이완시간 T1, 이완시간 T2 및 혈류 등의 흐름에 의해 결정될 수 있다.
MRI 장치(101)는 다른 이미징 장치들과는 다른 특징들을 포함한다. 영상의 획득이 감지 하드웨어(detecting hardware)의 방향에 의존하는 CT와 같은 이미징 장치들과 달리, MRI 장치(101)는 임의의 지점으로 지향된 2D 영상 또는 3D 볼륨 영상을 획득할 수 있다. 또한, MRI 장치(101)는, CT, X-ray, PET 및 SPECT와 달리, 대상체 및 검사자에게 방사선을 노출시키지 않으며, 높은 연부 조직(soft tissue) 대조도를 갖는 영상의 획득이 가능하여, 비정상적인 조직의 명확한 묘사가 중요한 신경(neurological) 영상, 혈관 내부(intravascular) 영상, 근 골격(musculoskeletal) 영상 및 종양(oncologic) 영상 등을 획득할 수 있다.
도 1에 도시된 바와 같이, 본 실시에의 MRI 장치(101)는 갠트리(gantry)(220), 신호 송수신부(230), 모니터링부(240), 시스템 제어부(250) 및 오퍼레이팅부(260)를 포함할 수 있다.
갠트리(220)는 주 자석(222), 경사 코일(224), RF 코일(226) 등에 의하여 생성된 전자파가 외부로 방사되는 것을 차단한다. 갠트리(220) 내 보어(bore)에는 정자기장 및 경사자장이 형성되며, 대상체(210)를 향하여 RF 신호가 조사된다.
주 자석(222), 경사 코일(224) 및 RF 코일(226)은 갠트리(220)의 소정의 방향을 따라 배치될 수 있다. 소정의 방향은 동축 원통 방향 등을 포함할 수 있다. 원통의 수평축을 따라 원통 내부로 삽입 가능한 테이블(table)(228)상에 대상체(210)가 위치될 수 있다.
주 자석(222)은 대상체(210)에 포함된 원자핵들의 자기 쌍극자 모멘트(magnetic dipole moment)의 방향을 일정한 방향으로 정렬하기 위한 정자기장 또는 정자장(static magnetic field)을 생성한다. 주 자석에 의하여 생성된 자장이 강하고 균일할수록 대상체(210)에 대한 비교적 정밀하고 정확한 MR 영상을 획득할 수 있다.
경사 코일(Gradient coil)(224)은 서로 직교하는 X축, Y축 및 Z축 방향의 경사자장을 발생시키는 X, Y, Z 코일을 포함한다. 경사 코일(224)은 대상체(210)의 부위 별로 공명 주파수를 서로 다르게 유도하여 대상체(210)의 각 부위의 위치 정보를 제공할 수 있다.
RF 코일(226)은 환자에게 RF 신호를 조사하고, 환자로부터 방출되는 MR 신호를 수신할 수 있다. 구체적으로, RF 코일(226)은, 세차 운동을 하는 원자핵을 향하여 세차운동의 주파수와 동일한 주파수의 RF 신호를 환자에게 전송한 후 RF 신호의 전송을 중단하고, 환자로부터 방출되는 MR 신호를 수신할 수 있다.
예를 들어, RF 코일(226)은 어떤 원자핵을 낮은 에너지 상태로부터 높은 에너지 상태로 천이시키기 위하여 이 원자핵의 종류에 대응하는 무선 주파수(Radio Frequency)를 갖는 전자파 신호, 예컨대 RF 신호를 생성하여 대상체(210)에 인가할 수 있다. RF 코일(226)에 의해 생성된 전자파 신호가 어떤 원자핵에 가해지면, 이 원자핵은 낮은 에너지 상태로부터 높은 에너지 상태로 천이될 수 있다. 이후에, RF 코일(226)에 의해 생성된 전자파가 사라지면, 전자파가 가해졌던 원자핵은 높은 에너지 상태로부터 낮은 에너지 상태로 천이하면서 라모어 주파수를 갖는 전자파를 방사할 수 있다. 다시 말해서, 원자핵에 대하여 전자파 신호의 인가가 중단되면, 전자파가 가해졌던 원자핵에서는 높은 에너지에서 낮은 에너지로의 에너지 준위의 변화가 발생하면서 라모어 주파수를 갖는 전자파가 방사될 수 있다. RF 코일(226)은 대상체(210) 내부의 원자핵들로부터 방사된 전자파 신호를 수신할 수 있다.
RF 코일(226)은 원자핵의 종류에 대응하는 무선 주파수를 갖는 전자파를 생성하는 기능과 원자핵으로부터 방사된 전자파를 수신하는 기능을 함께 갖는 하나의 RF 송수신 코일로서 구현될 수도 있다. 또한, 원자핵의 종류에 대응하는 무선 주파수를 갖는 전자파를 생성하는 기능을 갖는 송신 RF 코일과 원자핵으로부터 방사된 전자파를 수신하는 기능을 갖는 수신 RF 코일로서 각각 구현될 수도 있다.
또한, 이러한 RF 코일(226)은 갠트리(220)에 고정된 형태일 수 있고, 착탈이 가능한 형태일 수 있다. 착탈이 가능한 RF 코일(226)은 머리 RF 코일, 흉부 RF 코일, 다리 RF 코일, 목 RF 코일, 어깨 RF 코일, 손목 RF 코일 및 발목 RF 코일 등을 포함한 대상체의 일부분에 대한 RF 코일을 포함할 수 있다.
또한, RF 코일(226)은 유선 및/또는 무선으로 외부 장치와 통신할 수 있으며, 통신 주파수 대역에 따른 듀얼 튠(dual tune) 통신도 수행할 수 있다.
또한, RF 코일(226)은 코일의 구조에 따라 새장형 코일(birdcage coil), 표면 부착형 코일(surface coil) 및 횡전자기파 코일(TEM 코일)을 포함할 수 있다.
또한, RF 코일(226)은 RF 신호 송수신 방법에 따라, 송신 전용 코일, 수신 전용 코일 및 송/수신 겸용 코일을 포함할 수 있다.
또한, RF 코일(226)은 16 채널, 32 채널, 72채널 및 144 채널 등 다양한 채널의 RF 코일을 포함할 수 있다.
이하에서는, RF 코일(226)이 다수개의 채널들인 제1 내지 제 N 채널에 각각 대응되는 N 개의 코일들을 포함하는 고주파 멀티 코일(Radio Frequency multi coil)인 경우를 예로 들어 설명한다. 여기서, 고주파 멀티 코일은 다채널 RF 코일이라 칭할 수도 있다.
갠트리(220)는 갠트리(220)의 외측에 위치하는 디스플레이(229)와 갠트리(220)의 내측에 위치하는 디스플레이(도시되지 아니함)를 더 포함할 수 있다. 갠트리(220)의 내측 및/또는 외측에 위치하는 디스플레이를 통해 사용자 또는 대상체에게 소정의 정보를 제공할 수 있다.
신호 송수신부(230)는 소정의 MR 시퀀스에 따라 갠트리(220) 내부, 즉 보어에 형성되는 경사자장을 제어하고, RF 신호와 MR 신호의 송수신을 제어할 수 있다.
신호 송수신부(230)는 경사자장 증폭기(232), 송수신 스위치(234), RF 송신부(236) 및 RF 데이터 획득부(238)를 포함할 수 있다.
경사자장 증폭기(Gradient Amplifier)(232)는 갠트리(220)에 포함된 경사 코일(224)을 구동시키며, 경사자장 제어부(254)의 제어 하에 경사자장을 발생시키기 위한 펄스 신호를 경사 코일(224)에 공급할 수 있다. 경사자장 증폭기(232)로부터 경사 코일(224)에 공급되는 펄스 신호를 제어함으로써, X축, Y축, Z축 방향의 경사 자장이 합성될 수 있다.
RF 송신부(236) 및 RF 데이터 획득부(238)는 RF 코일(226)을 구동시킬 수 있다. RF 송신부(236)는 라모어 주파수(Larmor frequency)의 RF 펄스를 RF 코일(226)에 공급하고, RF 데이터 획득부(238)는 RF 코일(226)이 수신한 MR 신호를 수신할 수 있다.
송수신 스위치(234)는 RF 신호와 MR 신호의 송수신 방향을 조절할 수 있다. 예를 들어, 송신 모드 동안에 RF 코일(226)을 통하여 대상체(210)로 RF 신호가 조사되게 하고, 수신 모드 동안에는 RF 코일(226)을 통하여 대상체(210)로부터의 MR 신호가 수신되게 할 수 있다. 이러한 송수신 스위치(234)는 RF 제어부(256)로부터의 제어 신호에 의하여 제어될 수 있다.
모니터링부(240)는 갠트리(220) 또는 갠트리(220)에 장착된 기기들을 모니터링 또는 제어할 수 있다. 모니터링부(240)는 시스템 모니터링부(242), 대상체 모니터링부(244), 테이블 제어부(246) 및 디스플레이 제어부(248)를 포함할 수 있다.
시스템 모니터링부(242)는 정자기장의 상태, 경사자장의 상태, RF 신호의 상태, RF 코일의 상태, 테이블의 상태, 대상체의 신체 정보를 측정하는 기기의 상태, 전원 공급 상태, 열 교환기의 상태, 컴프레셔의 상태 등을 모니터링하고 제어할 수 있다.
대상체 모니터링부(244)는 대상체(210)의 상태를 모니터링한다. 구체적으로, 대상체 모니터링부(244)는 대상체(210)의 움직임 또는 위치를 관찰하기 위한 카메라, 대상체(210)의 호흡을 측정하기 위한 호흡 측정기, 대상체(210)의 심전도를 측정하기 위한 ECG 측정기, 또는 대상체(210)의 체온을 측정하기 위한 체온 측정기를 포함할 수 있다.
테이블 제어부(246)는 대상체(210)가 위치하는 테이블(228)의 이동을 제어한다. 테이블 제어부(246)는 시퀀스 제어부(252)의 시퀀스 제어에 따라 테이블(228)의 이동을 제어할 수도 있다. 예를 들어, 대상체의 이동 영상 촬영(moving imaging)에 있어서, 테이블 제어부(246)는 시퀀스 제어부(252)에 의한 시퀀스 제어에 따라 지속적으로 또는 단속적으로 테이블(228)을 이동시킬 수 있으며, 이에 의해, 갠트리의 FOV(field of view)보다 큰 FOV로 대상체를 촬영할 수 있다.
디스플레이 제어부(248)는 갠트리(220)의 외측 및/또는 내측에 위치하는 디스플레이(229)를 제어한다. 구체적으로, 디스플레이 제어부(248)는 갠트리(220)의 외측 및/또는 내측에 위치하는 디스플레이(229)의 온/오프 또는 디스플레이(229)에 출력될 화면 등을 제어할 수 있다. 또한, 갠트리(220) 내측 또는 외측에 스피커가 위치하는 경우, 디스플레이 제어부(248)는 스피커의 온/오프 또는 스피커를 통해 출력될 사운드 등을 제어할 수도 있다.
시스템 제어부(250)는 갠트리(220) 내부에서 형성되는 신호들의 시퀀스를 제어하는 시퀀스 제어부(252), 및 갠트리(220)와 갠트리(220)에 장착된 기기들을 제어하는 갠트리 제어부(258)를 포함할 수 있다.
시퀀스 제어부(252)는 경사자장 증폭기(232)를 제어하는 경사자장 제어부(254), 및 RF 송신부(236), RF 데이터 획득부(238) 및 송수신 스위치(234)를 제어하는 RF 제어부(256)를 포함할 수 있다. 시퀀스 제어부(252)는 오퍼레이팅부(260)로부터 수신된 펄스 시퀀스에 따라 경사자장 증폭기(232), RF 송신부(236), RF 데이터 획득부(238) 및 송수신 스위치(234)를 제어할 수 있다.
여기에서, 펄스 시퀀스(pulse sequence)란, MRI 장치(101)에서 반복적으로 인가되는 신호의 연속을 의미한다. 펄스 시퀀스는 RF 펄스의 시간 파라미터, 예를 들어, 반복 시간(Repetition Time, TR) 및 에코 시간(Time to Echo, TE) 등을 포함할 수 있다.
본 실시예에서, 펄스 시퀀스는 경사자장 증폭기(232), RF 송신부(236), RF 데이터 획득부(238) 및 송수신 스위치(234)를 제어하기 위해 필요한 모든 정보를 포함하며, 예를 들면 경사 코일(224)에 인가하는 펄스(pulse) 신호의 강도, 인가 시간, 인가 타이밍(timing) 등에 관한 정보 등을 포함할 수 있다.
오퍼레이팅부(260)는 시스템 제어부(250)에 펄스 시퀀스 정보를 지령하는 것과 동시에, MRI 장치(101) 전체의 동작을 제어할 수 있다.
오퍼레이팅부(260)는 RF 데이터 획득부(238)로부터 수신되는 MR 신호를 처리하는 영상 처리부(262), 출력부(264) 및 사용자 인터페이스 부(266)를 포함할 수 있다.
영상 처리부(262)는 RF 데이터 획득부(238)로부터 수신되는 MR 신호를 처리하여, 대상체(210)에 대한 MR 화상 데이터를 생성할 수 있다.
영상 처리부(262)는 RF 데이터 획득부(238)가 수신한 MR 신호에 증폭, 주파수 변환, 위상 검파, 저주파 증폭, 필터링(filtering) 등과 같은 각종의 신호 처리를 가한다.
영상 처리부(262)는, 예를 들어, 메모리의 k 공간에 디지털 데이터를 배치하고, 이러한 데이터를 2차원 또는 3차원 푸리에 변환을 하여 화상 데이터로 재구성할 수 있다.
또한, 영상 처리부(262)는 필요에 따라, 화상 데이터(data)의 합성 처리나 차분 연산 처리 등도 수행할 수 있다. 합성 처리는, 픽셀에 대한 가산 처리, 최대치 투영(MIP)처리 등을 포함할 수 있다. 또한, 영상 처리부(262)는 재구성되는 화상 데이터뿐만 아니라 합성 처리나 차분 연산 처리가 행해진 화상 데이터를 메모리(도시되지 아니함) 또는 외부의 서버에 저장할 수 있다.
또한, 영상 처리부(262)가 MR 신호에 대해 적용하는 각종 신호 처리는 병렬적으로 수행될 수 있다. 예를 들어, 다채널 RF 코일에 의해 수신되는 복수의 MR 신호에 신호 처리를 병렬적으로 가하여 복수의 MR 신호를 화상 데이터로 재구성할 수도 있다.
출력부(264)는 영상 처리부(262)에 의해 생성된 화상 데이터 또는 재구성 화상 데이터를 사용자에게 출력할 수 있다. 또한, 출력부(264)는 UI(user interface), 사용자 정보 또는 대상체 정보 등 사용자가 MRI 시스템을 조작하기 위해 필요한 정보를 출력할 수 있다.
출력부(264)는 스피커, 프린터, 디스플레이 등을 포함할 수 있다. 디스플레이의 구현 방식은 한정되지 않으며, 예컨대 액정(liquid crystal), 플라즈마(plasma), 발광 다이오드(light-emitting diode), 유기발광 다이오드(organic light-emitting diode), 면전도 전자총(surface-conduction electron-emitter), 탄소 나노 튜브(carbon nano-tube), 나노 크리스탈(nano-crystal) 등의 다양한 디스플레이 방식으로 구현될 수 있다. 또한, 디스플레이는 영상을 3D 형태로 표시 가능하게 구현될 수 있으며, 경우에 따라 투명 디스플레이로 구현될 수도 있다.
본 실시예에서 출력부(264)는 기타 당업자에게 자명한 범위 내에서 다양한 출력장치들을 포함할 수 있다.
사용자는 사용자 입력부(266)를 이용하여 대상체 정보, 파라미터 정보, 스캔 조건, 펄스 시퀀스, 화상 합성이나 차분의 연산에 관한 정보 등을 입력할 수 있다. 사용자 입력부(266)는 키보드, 마우스, 트랙볼, 음성 인식부, 제스처 인식부, 터치 패드 등을 포함할 수 있고, 기타 당업자에게 자명한 범위 내에서 다양한 입력 장치들을 포함할 수 있다.
도 2는 신호 송수신부(230), 모니터링부(240), 시스템 제어부(250) 및 오퍼레이팅부(260)를 서로 분리된 객체로 도시하였지만, 신호 송수신부(230), 모니터링부(240), 시스템 제어부(250) 및 오퍼레이팅부(260) 각각에 의해 수행되는 기능들이 다른 객체에서 수행될 수도 있다는 것은 당업자라면 충분히 이해할 수 있을 것이다. 예를 들어, 영상 처리부(262)는, RF 데이터 획득부(238)가 수신한 MR 신호를 디지털 신호로 변환한다고 전술하였지만, 이 디지털 신호로의 변환은 RF 데이터 획득부(238) 또는 RF 코일(226)에 의해 직접 수행될 수도 있다.
갠트리(220), RF 코일(226), 신호 송수신부(230), 모니터링부(240), 시스템 제어부(250) 및 오퍼레이팅부(260)는 서로 무선 또는 유선으로 연결될 수 있고, 무선으로 연결된 경우에는 서로 간의 클럭(clock)을 동기화하기 위한 장치(도시되지 아니함)를 더 포함할 수 있다. 갠트리(220), RF 코일(226), 신호 송수신부(230), 모니터링부(240), 시스템 제어부(250) 및 오퍼레이팅부(260) 사이의 통신은, LVDS(Low Voltage Differential Signaling) 등의 고속 디지털 인터페이스, UART(universal asynchronous receiver transmitter) 등의 비동기 시리얼 통신, 과오 동기 시리얼 통신 또는 CAN(Controller Area Network) 등의 저지연형의 네트워크 프로토콜, 광통신 등이 이용될 수 있으며, 당업자에게 자명한 범위 내에서 다양한 통신 방법이 이용될 수 있다.
도 3은 본 발명 일실시예에 의한 CT 장치(102)를 도시한 도면이고, 도 4는 도 3의 CT 장치(102)의 구성을 개략적으로 도시한 도면이다.
도 3에 도시된 바와 같이, CT 장치(102)는 갠트리(302), 테이블(305), 엑스선 생성부(306) 및 엑스선 검출부(308)를 포함할 수 있다.
CT 장치(102)과 같은 단층 촬영 장치는 대상체에 대하여 단면 영상을 제공할 수 있으므로, 일반적인 X-ray 촬영 기기에 비하여 대상체의 내부 구조(예컨대, 신장, 폐 등의 장기 등)가 겹치지 않게 표현할 수 있다는 장점이 있다.
단층 촬영 장치는 CT(computed Tomography) 장치, OCT(Optical Coherenc Tomography), 또는 PET(positron emission tomography)-CT 장치 등과 같은 모든 단층 촬영 장치들을 포함할 수 있다.
본 실시예에서 단층(Tomography) 영상이란, 단층 촬영 장치에서 대상체를 단층 촬영하여 획득된 영상으로, 엑스레이 등과 같은 광선을 대상체로 조사한 후 투영된 데이터를 이용하여 이미징된 영상을 의미할 수 있다. 구체적으로, CT(Computed Tomography) 영상 이란 대상체에 대한 적어도 하나의 축을 중심으로 회전하며 대상체를 촬영함으로써 획득된 복수개의 엑스레이 영상들의 합성 영상을 의미할 수 있다.
이하에서는, 단층 촬영 장치(300)로서 도 2 및 도 3에 도시된 CT 장치(102)를 예로 들어 설명하기로 한다.
CT 장치(102)는, 예를 들어, 2mm 두께 이하의 영상데이터를 초당 수십, 수백 회 획득하여 가공함으로써 대상체에 대하여 비교적 정확한 단면 영상을 제공할 수 있다. 종래에는 대상체의 가로 단면만으로 표현된다는 문제점이 있었지만, 다음과 같은 여러 가지 영상 재구성 기법의 등장에 의하여 극복되었다. 3차원 재구성 영상기법들로 는 다음과 같은 기법들이 있다.
- SSD(Shade surface display): 초기 3차원 영상기법으로 일정 HU값을 가지는 복셀들만 나타내도록 하는 기법.
- MIP(maximum intensity projection)/MinIP(minimum intensity projection): 영상을 구성하는 복셀 중에서 가장 높은 또는 낮은 HU값을 가지는 것들만 나타내는 3D 기법.
- VR(volume rendering): 영상을 구성하는 복셀들을 관심영역별로 색 및 투과도를 조절할 수 있는 기법.
- 가상내시경(Virtual endoscopy): VR 또는 SSD 기법으로 재구성한 3차원 영상에서 내시경적 관찰이 가능한 기법.
- MPR(multi planar reformation): 다른 단면 영상으로 재구성하는 영상 기법. 사용자가 원하는 방향으로의 자유자제의 재구성이 가능하다.
- Editing: VR에서 관심부위를 보다 쉽게 관찰하도록 주변 복셀들을 정리하는 여러 가지 기법.
- VOI(voxel of interest): 선택 영역만을 VR로 표현하는 기법.
본 발명의 실시예에 따른 컴퓨터 단층촬영(CT) 장치(102)는 도 3 및 도 4를 참조하여 설명될 수 있다. 본 발명의 일 실시예에 따른 CT 장치(102)는 도 4에 도시된 바와 같이 다양한 형태의 장치들을 포함할 수 있다.
갠트리(302)는 엑스선 생성부(306) 및 엑스선 검출부(308)를 포함할 수 있다.
대상체(30)는 테이블(305) 상에 위치될 수 있다.
테이블(305)은 CT 촬영 과정에서 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동할 수 있다. 또한, 테이블(305)은 소정의 방향으로 소정의 각도만큼 기울어질 수 있거나(tilting) 또는 회전(rotating)될 수 있다.
또한, 갠트리(302)도 소정의 방향으로 소정의 각도만큼 기울어질 수 있다.
도 4에 도시된 바와 같이, 본 발명의 일 실시예에 따른 CT 장치(102)는 갠트리(302), 테이블(305), 제어부(318), 저장부(324), 영상 처리부(326), 사용자 입력부(328), 디스플레이부(330), 통신부(332)를 포함할 수 있다.
전술한 바와 같이, 대상체(310)는 테이블(305) 상에 위치할 수 있다. 본 발명의 일 실시예에 따른 테이블(305)은 소정의 방향(예컨대, 상, 하, 좌, 우 중 적어도 한 방향)으로 이동 가능하고, 제어부(318)에 의하여 움직임이 제어될 수 있다.
본 발명의 일 실시예에 따른 갠트리(302)는 회전 프레임(304), 엑스선 생성부(306), 엑스선 검출부(308), 회전구동부(310), 데이터 획득 회로(316), 데이터 송신부(320)를 포함할 수 있다.
본 발명의 일 실시예에 따른 갠트리(302)는 소정의 회전축(RA; Rotation Axis)에 기초하여 회전 가능한 고리 형태의 회전 프레임(304)을 포함할 수 있다. 또한, 회전 프레임(304)은 디스크의 형태일 수도 있다.
회전 프레임(304)은 소정의 시야 범위(FOV; Field Of View)를 갖도록 각각 대향하여 배치된 엑스선 생성부(306) 및 엑스선 검출부(308)를 포함할 수 있다. 또한, 회전 프레임(304)은 산란 방지 그리드(anti-scatter grid, 314)를 포함할 수 있다. 산란 방지 그리드(314)는 엑스선 생성부(306)와 엑스선 검출부(308)의 사이에서 위치할 수 있다.
의료영상 표시장치에 있어서, 검출기(또는 감광성 필름)에 도달하는 X-선 방사선에는, 유용한 영상을 형성하는 감쇠된 주 방사선 (attenuated primary radiation) 뿐만 아니라 영상의 품질을 떨어뜨리는 산란 방사선(scattered radiation) 등이 포함되어 있다. 주 방사선은 대부분 투과시키고 산란 방사선은 감쇠시키기 위해, 환자와 검출기(또는 감광성 필름)와의 사이에 산란 방지 그리드를 위치시킬 수 있다.
예를 들어, 산란 방지 그리드는, 납 박편의 스트립(strips of lead foil)과, 중공이 없는 폴리머 물질(solid polymer material)이나 중공이 없는 폴리머(solid polymer) 및 섬유 합성 물질(fiber composite material) 등의 공간 충전 물질(interspace material)을 교대로 적층한 형태로 구성될 수 있다. 그러나, 산란 방지 그리드의 형태는 반드시 이에 제한되는 것은 아니다.
회전 프레임(304)은 회전 구동부(310)로부터 수신된 구동 신호에 기초하여, 엑스선 생성부(306)와 엑스선 검출부(308)를 소정의 회전 속도로 회전시킬 수 있다. 회전 프레임(304)은 슬립 링(도시되지 아니함)을 통하여 접촉 방식으로 회전 구동부(310)로부터 구동 신호, 파워를 수신할 수 있다. 또한, 회전 프레임(304)은 무선 통신을 통하여 회전 구동부(310)로부터 구동 신호, 파워를 수신할 수 있다.
엑스선 생성부(306)는 파워 분배부(PDU; Power Distribution Unit, 도시되지 아니함)에서 슬립 링(도시되지 아니함)을 거쳐 고전압 생성부(도시되지 아니함)를 통하여 전압, 전류를 인가 받아 엑스선을 생성하여 방출할 수 있다. 고전압 생성부가 소정의 전압(이하에서 튜브 전압으로 지칭함)을 인가할 때, 엑스선 생성부(306)는 이러한 소정의 튜브 전압에 상응하게 복수의 에너지 스펙트럼을 갖는 엑스선(X-ray)들을 생성할 수 있다.
엑스선 생성부(306)에 의하여 생성되는 엑스선은, 콜리메이터(collimator, 112)에 의하여 소정의 형태로 방출될 수 있다.
엑스선 검출부(308)는 엑스선 생성부(306)와 마주하여 위치할 수 있다. 엑스선 검출부(308)는 복수의 엑스선 검출소자들을 포함할 수 있다. 단일 엑스선 검출 소자는 단일 채널을 형성할 수 있지만, 반드시 이에 제한되는 것은 아니다.
엑스선 검출부(308)는 엑스선 생성부(306)로부터 생성되고 대상체(30)를 통하여 전송된 엑스선을 감지하고, 감지된 엑스선의 강도에 상응하게 전기 신호를 생성할 수 있다.
엑스선 검출부(308)는 방사선을 광으로 전환하여 검출하는 간접방식과 방사선을 직접 전하로 변환하여 검출하는 직접방식 검출기를 포함할 수 있다. 간접방식의 엑스선 검출부는 신틸레이터(Scintillator)를 사용할 수 있다. 또한, 직접방식의 엑스선 검출부는 광자계수형 디텍터(photon counting detector)를 사용할 수 있다. 데이터 획득 회로(DAS; Data Acquisitino System)(316)는 엑스선 검출부(308)와 연결될 수 있다. 엑스선 검출부(308)에 의하여 생성된 전기 신호는 DAS(316)에서 수집될 수 있다. 엑스선 검출부(308)에 의하여 생성된 전기 신호는 유선 또는 무선으로 DAS(316)에서 수집될 수 있다. 또한, 엑스선 검출부(308)에 의하여 생성된 전기 신호는 증폭기(도시되지 아니함)를 거쳐 아날로그/디지털 컨버터(도시되지 아니함)로 제공될 수 있다.
슬라이스 두께(slice thickness)나 슬라이스 개수에 따라 엑스선 검출부(308)로부터 수집된 일부 데이터만이 영상 처리부(326)에 제공될 수 있고, 또는 영상 처리부(326)에서 일부 데이터만을 선택할 수 있다.
이러한 디지털 신호는 데이터 송신부(320)를 통하여 영상 처리부(326)로 제공될 수 있다. 이러한 디지털 신호는 데이터 송신부(320)를 통하여 유선 또는 무선으로 영상 처리부(326)로 송신될 수 있다.
본 발명의 일 실시예에 따른 CT 장치(102)의 제어부(318)는 CT 장치(102) 내 각각의 모듈의 동작을 제어할 수 있다. 예를 들어, 제어부(318)는 테이블(305), 회전 구동부(310), 콜리메이터(312), DAS(316), 저장부(324), 영상 처리부(326), 사용자 입력부(328), 디스플레이부(330), 통신부(332) 등의 동작들을 제어할 수 있다.
영상 처리부(326)는 DAS(316)로부터 획득된 데이터(예컨대, 가공 전 순수(pure) 데이터)를 데이터 송신부(320)를 통하여 수신하여, 전처리(pre-processing)하는 과정을 수행할 수 있다.
전처리는, 예를 들면, 채널들 사이의 감도 불균일 정정 프로세스, 신호 세기의 급격한 감소 또는 금속 같은 X선 흡수재로 인한 신호의 유실 정정 프로세스 등을 포함할 수 있다.
영상 처리부(326)의 출력 데이터는 로 데이터(raw data) 또는 프로젝션(projection) 데이터로 지칭될 수 있다. 이러한 프로젝션 데이터는 데이터 획득시의 촬영 조건(예컨대, 튜브 전압, 촬영 각도 등)등과 함께 저장부(324)에 저장될 수 있다.
프로젝션 데이터는 대상체롤 통과한 X선의 세기에 상응하는 데이터 값의 집합일 수 있다. 설명의 편의를 위해, 모든 채널들에 대하여 동일한 촬영 각도로 동시에 획득된 프로젝션 데이터의 집합을 프로젝션 데이터 세트로 지칭한다.
저장부(324)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(SD, XD 메모리 등), 램(RAM; Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM; Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.
또한, 영상 처리부(326)는 획득된 프로젝션 데이터 세트를 이용하여 대상체에 대한 단면 영상을 재구성할 수 있다. 이러한 단면 영상은 3차원 영상일 수 있다. 다시 말해서, 영상 처리부(326)는 획득된 프로젝션 데이터 세트에 기초하여 콘 빔 재구성(cone beam reconstruction) 방법 등을 이용하여 대상체에 대한 3차원 영상을 생성할 수 있다.
사용자 입력부(328)를 통하여 X선 단층 촬영 조건, 영상 처리 조건 등에 대한 외부 입력이 수신될 수 있다. 예를 들면, X선 단층 촬영 조건은, 복수의 튜브 전압, 복수의 X선들의 에너지 값 설정, 촬영 프로토콜 선택, 영상재구성 방법 선택, FOV 영역 설정, 슬라이스 개수, 슬라이스 두께(slice thickness), 영상 후처리 파라미터 설정 등을 포함할 수 있다. 또한 영상 처리 조건은 영상의 해상도, 영상에 대한 감쇠 계수 설정, 영상의 조합비율 설정 등을 포함할 수 있다.
사용자 입력부(328)는 외부로부터 소정의 입력을 인가 받기 위한 디바이스 등을 포함할 수 있다. 예컨대, 사용자 입력부(328)는 마이크로폰, 키보드, 마우스, 조이스틱, 터치 패드, 터치펜, 음성, 제스처 인식장치 등을 포함할 수 있다.
디스플레이부(330)는 영상 처리부(326)에 의해 재구성된 엑스선 촬영 영상을 디스플레이할 수 있다.
전술한 엘리먼트들 사이의 데이터, 파워 등의 송수신은 유선, 무선 및 광통신 중 적어도 하나를 이용하여 수행될 수 있다.
통신부(332)는 서버(334) 등을 통하여 외부 디바이스, 외부 의료 장치 등과의 통신을 수행할 수 있다.
도 5는 네트워크 시스템에서 외부와 통신을 수행하는 통신부(532)의 구성을 간략하게 도시한 도면이다.
도 5에 도시된 통신부(532)는 도 2에 도시된 갠트리(220), 신호 송수신부(230), 모니터링부(240), 시스템 제어부(250) 및 오퍼레이팅부(260) 중 적어도 하나와도 연결 가능하다. 즉, 통신부(532)는 의료영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고 받을 수 있으며, 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 데이터 통신할 수 있다.
도 5에 도시된 바와 같이, 통신부(532)는 유선 또는 무선으로 네트워크(501)와 연결되어 외부의 서버(534), 외부의 의료 장치(536), 또는 휴대용 장치와 같은 외부 디바이스(538)와 통신을 수행할 수 있다.
구체적으로, 통신부(532)는 네트워크(501)를 통해 대상체의 진단과 관련된 데이터를 송수신할 수 있으며, CT, 초음파, 엑스선 등 다른 의료 장치(536)에서 촬영한 의료영상 또한 송수신할 수 있다.
본 발명 일실시예에서, 도 5에 도시된 통신부(532)는 도 4의 CT 장치(102)에 포함될 수도 있다. 이 경우, 도 4에 도시된 통신부(532)는 도 3에 도시된 통신부(332)와 동일하다. 그리고, 다른 의료장치(536)는 예컨대 도 1의 MRI 장치(101) 또는 초음파 장치(103)일 수 있다.
또한, 도 5에 도시된 통신부(532)는 도 2의 MRI 장치(101)에 포함될 수도 있다. 이 경우, 도 2에 도시된 MRI 장치(101)가 도 5의 통신부(532)를 더 포함하는 형태로 구현 가능하다. 그리고, 다른 의료장치(536)는 예컨대 도 1의 CT 장치(102) 또는 초음파 장치(103)일 수 있다.
통신부(532)의 구체적인 동작은 이하와 같다.
통신부(532)는, 유선 또는 무선으로 네트워크(501)와 연결되어 서버(534), 외부 의료 장치(536) 또는 외부 디바이스(538)와의 통신을 수행할 수 있다. 통신부(532)는 의료영상 정보 시스템(PACS, Picture Archiving and Communication System)을 통해 연결된 병원 서버나 병원 내의 다른 의료 장치와 데이터를 주고받을 수 있다.
또한, 통신부(532)는 의료용 디지털 영상 및 통신(DICOM, Digital Imaging and Communications in Medicine) 표준에 따라 외부 디바이스(538) 등과 데이터 통신을 수행할 수 있다.
통신부(532)는 네트워크(501)를 통해 대상체에 대한 영상 및/또는 대상체의 진단과 관련된 데이터를 송수신할 수 있다. 통신부(532)는 MRI 장치(101), 엑스선 촬영 장치 등 다른 의료 기기(536)에서 획득된 의료영상 등을 수신할 수 있다.
나아가, 통신부(532)는 서버(534)로부터 환자의 진단 이력이나 치료 일정 등을 수신하여 환자의 임상적 진단 등에 활용할 수도 있다. 또한, 통신부(532)는 병원 내의 서버(534)나 의료 장치(536)뿐만 아니라, 사용자나 환자의 휴대용 장치(단말장치)(538) 등과 데이터 통신을 수행할 수도 있다.
또한 장비의 이상유무 및 품질 관리현황 정보를 네트워크를 통해 시스템 관리자나 서비스 담당자에게 송신하고 그에 대한 피드백(feedback)을 수신할 수 있다.
전술한 바와 같이, 다양한 의료영상 표시장치에 의해서 획득된 의료영상들은 의료영상 표시장치의 종류 및 촬영 방식에 따라서 대상체를 다양한 방식으로 표현한다. 또한, 의료영상 표시장치의 촬영 방식 및 종류에 따라서, 획득된 의료영상의 특성이 달라진다. 예를 들어, 일 의료영상에서는 암 조직의 파악이 용이하며, 다른 의료영상에서는 혈관의 파악이 용이할 수 있다.
따라서, 영상의 판독 부위를 고려하여 사용자의 의도에 맞는 의료영상을 제공하는 장치를 제공할 필요가 있다.
이하에서는, 의료영상 내의 소정 영역에 대하여 사용자의 진단을 용이하게 하는 의료영상을 제공할 수 있는 본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치를 첨부된 도면들을 참조하여, 상세히 설명한다.
본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치는 의료영상을 디스플레이, 저장 및/또는 처리할 수 있는 모든 영상 처리 장치가 될 수 있다.
구체적으로, 본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치(100)는 도 2 내지 도 4에서 설명한 MRI 장치(101) 또는 CT 장치(102) 등과 같은 단층 촬영 장치에 포함되도록 마련될 수 있다. 이 경우, 의료영상 표시장치(100)는 도 5에서 설명한 통신부(532)를 포함할 수 있다.
또한, 본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치(100)는 도 2 내지도 도 4에서 설명한 MRI 장치(101) 및 CT 장치(102) 등과 같은 단층 촬영 장치 중 적어도 하나와 네트워크(501)를 통하여 연결되는 서버(534), 의료 장치(536) 또는 외부 디바이스 즉, 휴대용 단말(538)에 포함될 수도 있을 것이다. 여기서, 서버(534), 의료 장치(536) 또는 휴대용 단말(538)은 MRI 영상 및 단층 영상 중 적어도 하나를 디스플레이, 저장 또는 처리할 수 있는 영상 처리 장치가 될 수 있다. 예를 들어, 본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치는 서버(534), 의료 장치(536) 또는 휴대용 단말(538)의 형태를 가질 수 있으며, MRI 영상 및 단층 영상 중 적어도 하나를 디스플레이, 저장 또는 처리할 수 있는 의료영상 정보 시스템(PACS, Picture Archiving and Communication System)이 될 수도 있다.
또한, 본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치(100)는 MRI 장치(101) 또는 CT 장치(102) 이외에도, 대상체를 스캔하여 획득된 데이터를 이용하여 영상을 처리/복원하는 모든 의료영상 장치/시스템에 포함되어 구비될 수 있으며, 또는 모든 의료영상 장치/시스템과 연결되어 구비될 수도 있을 것이다.
본 발명의 일 또는 다른 실시예에 따른 의료영상 표시장치(100)는 서로 다른 2 이상의 의료장치 예컨대, 제1 의료장치 및 제2 의료장치로부터 제1 의료영상과 제2 의료영상을 획득하고, 제1 의료영상과 제2 의료영상을 정합한 영상(제3 의료영상)을 표시하는 의료영상 정합장치로 구현될 수 있다.
도 6은 본 발명 일 실시예에 따른 제1 의료 장치(610), 제2 의료 장치(620) 및 의료영상 정합장치(630)를 포함하는 시스템을 도시한 도면이다.
제1 의료 장치(610)와 제2 의료장치(620)는 각각 제1 의료영상과 제2 의료영상을 생성하여, 의료영상 정합장치(630)에 제공한다. 제1 의료영상과 제2 의료영상은 동일한 원리에 의해 생성된 영상일 수 있다.
또한, 제1 의료영상과 제2 의료영상은 상이한 영상 모달리티를 가질 수 있다. 즉, 제1 의료영상과 제2 의료영상은 생성 방식 및 원리가 상이할 수 있다.
의료영상 정합장치(630)는 제1 의료영상과 제2 의료영상을 각각 획득하고, 제1 의료영상과 제2 의료영상을 정합한다. 의료영상 정합장치(630)가 정합한 영상은 디스플레이부(632)를 통해 디스플레이 된다.
도 6에 도시된 본 발명 일 실시예에서는 제1 의료 장치(610), 제2 의료 장치(620), 의료영상 정합장치(630)가 각각 독립된 장치를 구성하고 있으나, 다른 실시예에 따르면 제1 의료 장치(610)와 의료영상 정합장치(630)가 단일의 장치로 구현되거나, 또는 제2 의료 장치(620)와 의료영상 정합장치(630)가 단일의 장치로 구현될 수 있다. 또한, 의료영상 정합장치(630)가 본체(631)와 디스플레이부(632)를 포함하는 것으로 도시하였으나, 의료영상 정합장치(630)로부터 영상 데이터를 수신하여 표시하는 별도의 디스플레이장치가 시스템에 포함되도록 구현될 수도 있을 것이다.
즉, 본 실시예의 의료영상 정합장치(630)는 적어도 하나의 의료 장치와 통신 가능하며 디스플레이를 구비한 다른 하나의 의료 장치에 포함된 컴퓨터 시스템이거나, 2 이상의 의료장치와 통신 가능하며 디스플레이 및 본체를 포함하는 컴퓨터 시스템으로 구현될 수 있을 것이다.
일 실시예에서 제1 의료 장치(610)는 대상체의 관심 볼륨에 대하여 실시간으로 제1 의료영상을 제공할 수 있다. 예를 들어, 대상체의 신체 활동에 따른 장기의 변형과 변위가 발생되면, 실시간으로 제1 의료영상에 변화가 나타난다.
즉, 도 6에 도시된 본 발명 일 실시예에 따르면, 제1 의료 장치(620)는 환자에 대한 중재적 의료 시술과정에서 실시간으로 영상을 생성하는 초음파 장치(ultrasonography machine)(도 1의 103)로 구성될 수 있다. 예를 들어, 대상체의 신체 활동에 따른 장기의 변형과 변위가 발생되면, 실시간으로 디스플레이에 표시되는 의료영상에 변화가 나타난다. 다만, 제1 의료 장치(620)는 실시간으로 영상을 제공하는 OCT 등의 다른 의료장치일 수도 있을 것이다.
초음파 장치로 구성된 제1 의료 장치(610)는 프로브(probe)(611)를 이용하여 초음파 신호를 대상체의 관심영역에 조사하고, 반사되는 초음파 신호 즉, 초음파 에코 신호를 검출함으로써 초음파 영상을 생성한다.
프로브(611)는 대상체에 접촉하는 부분으로, 복수의 변환소자(transducer element)(이하, 트랜스듀서 라고도 함)(도시되지 아니함) 및 광원(도시되지 아니함)을 포함할 수 있다. 프로브(611)로부터 수 내지 수백 MHz 범위의 초음파가 환자 신체 내부의 특정 부위에 전달되면, 이 초음파는 여러 다른 조직들(tissues) 사이의 계층들로부터 부분적으로 반사된다. 초음파는 신체 내부에서의 밀도 변화가 있는 해부학적 개체들, 예를 들어, 혈장(blood plasma) 내의 혈구들(blood cells), 장기들(organs) 내의 작은 조직들(structures) 등에서 반사된다.
트랜스듀서로는 예를 들어, 자성체의 자왜효과를 이용하는 자왜 초음파 트랜스듀서(Magnetostrictive Ultrasonic Transducer)나, 압전 물질의 압전 효과를 이용한 압전 초음파 트랜스듀서(118)(Piezoelectric Ultrasonic Transducer), 미세 가공된 수백 또는 수천 개의 박막의 진동을 이용하여 초음파를 송수신하는 정전용량형 미세가공 초음파 트랜스듀서(Capacitive Micromachined Ultrasonic Transducer; cMUT) 등 다양한 종류의 초음파 트랜스듀서가 사용될 수 있다.
복수의 변환소자는 직선으로 배열되거나(Linear array), 곡선으로 배열될 수도 있다(Convex array). 이러한 변화소자의 상부에는 복수의 변환소자를 덮는 덮개가 마련될 수 있다.
광원은 대상체 내로 광을 조사하기 위한 것이다. 일 예로, 광원으로는 특정 파장의 광을 발생시키는 적어도 하나의 광원이 사용될 수도 있다. 다른 예로, 광원으로는 서로 다른 파장의 광을 발생시키는 복수의 광원이 사용될 수도 있다. 광원에서 발생되는 광의 파장은 대상체 내의 표적을 고려하여 선택될 수 있다. 이러한 광원은 반도체 레이저(LD), 발광다이오드(LED), 고체 레이저, 가스 레이저, 광섬유, 또는 이들의 조합으로 구현될 수 있다.
프로브(611)에 마련된 트랜스듀서는 제어신호에 따라 초음파 신호를 생성하여, 생성된 초음파 신호를 대상체 내로 조사한다. 그리고 대상체 내의 특정 조직(예를 들어, 병변)에서 반사된 초음파 에코 신호를 수신 즉, 검출한다.
이와 같이 반사된 초음파들은 프로브(611)의 트랜스듀서를 진동시키고, 트랜스듀서는 이 진동들에 따른 전기적 펄스들(electrical pulses)을 출력한다. 이와 같은 전기적 펄스들이 영상으로 변환된다. 해부학적 개체들이 서로 상이한 초음파 반사 특성을 갖는 경우, 예를 들어, B 모드(brightness mode)의 초음파 영상에서는 각 해부학적 개체들이 서로 상이한 밝기 값으로 나타난다.
초음파 영상의 종류는 대상체로부터 반사되는 초음파 에코 신호의 크기를 밝기로 나타내는 B 모드(brightness mode) 영상, 도플러 효과(doppler effect)를 이용하여 움직이는 대상체의 영상을 스펙트럼 형태로 나타내는 도플러 모드(doppler modem, 또는 D 모드(D(PW-Doppler) mode 라고도 한다) 영상, 어느 일정 위치에서 시간에 따른 대상체의 움직임을 나타내는 M 모드(motion mode) 영상, 대상체에 압력을 가할 때와 가하지 않을 때의 반응 차이를 영상으로 나타내는 탄성 모드 영상, 및 도플러 효과(doppler effect)를 이용하여 움직이는 대상체의 속도를 컬러로 표현하는 C 모드(color mode) 영상 등으로 구분될 수 있다. 도플러 영상은 정지 화상에 대한 도플러 영상뿐 아니라 동영상과 같은 연속 화상에 대한 도플러 영상을 포함할 수 있으며, 평면 공간에 대한 도플러 영상(2D 도플러) 및 입체 공간에 대한 도플러 영상(3D 도플러)을 모두 포함할 수 있다. 또한, 도플러 영상은 혈액의 흐름을 나타내는 혈류 도플러 영상(또는, 컬러 도플러 영상으로도 불림) 및 조직의 움직임을 나타내는 티슈 도플러 영상을 포함할 수 있다. 또한, 3차원 영상인 경우, 프로브 헤드(611)로부터 수신된 신호로부터 볼륨 데이터를 형성하고, 볼륨 데이터에 대해 볼륨 렌더링을 수행함으로써 3차원 초음파 영상을 생성할 수 있다.
일 실시예에서 제1 의료장치(610)는 프로브(611) 및 프로브(611)에서 검출된 초음파 에코 신호에 기초한 영상이 생성되도록 처리하는 영상처리장치(612)를 포함한다. 영상처리장치(612)에는 복수의 모드를 지원하며, 각 모드에 대응하는 초음파 영상을 생성하는 영상처리부가 마련될 수 있다. 도 6은 영상처리장치(612)가 컴퓨터 본체로 구현되어, 고정식 단말인 프로브(611)와 유선으로 연결된 경우를 예를 들어 도시한 것이다. 영상처리장치(612)는 초음파 영상을 표시하는 디스플레이부를 더 포함할 수 있다.
다른 실시예에 의하면, 프로브(611)는 고정식 단말뿐만 아니라, 사용자가 파지한 상태에서 장소를 이동할 수 있도록 제공되는 이동식 단말(휴대용 단말) 형태로도 구현될 수 있다. 프로브(611)가 이동식 단말로 구현되는 경우, 프로브(611)는 영상처리장치(612)와 무선 통신을 수행할 수 있다. 여기서, 무선 통신은 소정 주파수의 근거리 통신, 와이파이(Wifi), 와이파이 다이렉트(Wifi Direct), UWB(Ultra Wideband), 블루투스(Bluetooth), RF(Radio Frequency), 지그비(Zigbee), 무선랜(Wireless LAN) 및 NFC(Near Field Communication) 등의 다양한 무선 통신 모듈의 적어도 하나를 포함할 수 있다. 프로브(611)에서 수신된 초음파 에코 신호에 기초한 초음파 영상이 생성되도록 처리하는 영상처리장치(612)의 일례로는 스마트 폰(smart phone), 태블릿(tablet)과 같은 스마트 패드(smart pad), 스마트 TV(smart TV), 데스크탑 컴퓨터(desktop), 랩탑 컴퓨터(laptop), PDA(personal digital assistant, 개인 휴대용 정보 단말기) 등이 있을 수 있다.
또 다른 실시예에서, 프로브(611)의 내부에 복수의 모드에 대응하는 초음파 영상을 생성하는 영상처리부가 마련되며, 영상처리장치(612)는 프로브(611)에서 생성된 영상을 유선 또는 무선으로 수신하여 디스플레이부를 통해 표시하도록 구현될 수도 있을 것이다.
제2 의료 장치(620)는 비 실시간으로 대상체의 관심 볼륨(VOI: Volume of Interest)에 대한 제2 의료영상을 생성할 수 있다. 제2 의료장치(620)는 제1 의료장치(610)와 비교하여 비 실시간 특성을 가질 수 있으며, 의료 시술 이전에 미리 생성된 제2 의료영상을 의료영상 정합장치(630)로 제공할 수 있다.
본 실시예에서, 제2 의료 장치(620)는 도 2 내지 도 4에서 설명한 CT 장치(102) 또는 MRI 장치(101)가 될 수 있다. 제2 의료 장치(620)는 엑스선 촬영 장치, 단일광자 단층 촬영 (SPECT: single photon emission computed tomography) 장치, 양전자 단층 촬영(PET: position emission tomography) 장치 등으로도 구현될 수 있다.
이하의 실시예에서는 설명의 편의를 위하여 제2 의료영상이 MR 또는 CT 영상인 것을 가정하나, 본 발명의 권리범위는 이에 한정되지 않는다.
제1 의료 장치(610) 또는 제2 의료장치(620)에 의해 촬영되는 의료영상들은 2차원의 단면들을 축척하여 생성된 3차원 영상일 수 있다. 예컨대, 제2 의료장치(620)는 단면 영상의 위치(location)와 방향(orientation)을 변화시키면서, 다수의 단면 영상들을 촬영한다. 이와 같은 단면 영상들이 축적되면 환자 신체의 특정 부위를 3차원적으로 나타내는 3차원 볼륨(volume)의 영상 데이터가 생성될 수 있다. 이와 같이 단면 영상들을 축적하여 3차원 볼륨의 영상 데이터를 생성하는 방식을 MPR(Multiplanar reconstruction) 방식이라고 한다. 이와 유사하게, 제1 의료장치(610)는 프로브(611)를 Hand Sweep 하거나, Wabbler 방식, 3D Array 방식의 프로브(621)를 통해서 3차원 볼륨의 영상 데이터를 생성할 수 있다.
도 6에서는 제1 의료영상과 제2 의료영상이 서로 다른 종류의 의료 장치에서 생성된 경우를 설명하였으나, 제1 의료영상과 제2 의료영상이 같은 종류의 의료장치 예를 들어 CT 장치(102)에 의해 서로 다른 시점에 촬영된 영상인 경우도 본 발명의 권리범위에 포함된다.
이하의 본 발명 실시예에 따른 의료영상 표시장치에서는, 제1 의료영상이 조영제를 투여하지 않은 상태에서 촬영된 비조영 의료영상이고, 제2 의료영상이 조영제를 투여한 상태에서 촬영된 조영 증강 영상인 경우를 예로 들어 설명한다.
환자에게 투여되는 조영제는 다양한 부작용을 초래하는 문제점이 있다. 예컨대, 작게는 환자가 몸이 저리거나 화끈거리는 느낌을 받을 수 있으며, 두드러기, 가려움증, 구토, 오심, 발진 등을 유발할 수 있고, 나아가 심각하게는 환자가 사망에 이르는 경우도 발생할 수 있다.
특히 신장 기능이 좋지 않은 환자들은 부득이한 경우를 제외하고는 조영제를 사용할 수 없으며, 장기간 치료가 필요한 환자의 경우 조영제 사용에 따른 비용 문제도 간과하기 어렵다.
상기와 같은 조영제 부작용을 최소화 하고자, 폐암의 추적검사 및 폐 병변 단순 진단 (기관지 질환 및 폐기종 등)에는, 비 조영 영상이 주로 사용된다. 구체적으로는, ALARA(As Low As Reasonably Achievable) 원칙(선량 및 조영제 사용량을 가능한 최소화 할 것을 권고한 국제 규정) 및 NCCN(National Comprehensive Cancer Network) 가이드라인에 근거하여 80% 이상이 비 조영 영상으로 진단이 이루어지고 있다.
도 7은 흉부영역의 림프노드 및 혈관분포를 개념적으로 도시한 도면이며, 도 8은 흉부영역에 대해 촬영된 조영 증강 CT 영상을 도시한 도면이며, 도 9는 흉부영역에 대해 촬영된 비 조영 CT 영상을 도시한 도면이다.
도 7에 도시된 림프노드(Lymph node, 임파선, 림프절)(701)는 인체내의 병원체(예컨대, 염증, 암세포 등)를 인식하여 면역 반응을 일으키는데 관여한다. 따라서, 림프노드의 크기 변화 정도, 변화된 림프노드의 개수 및 분포의 변화는 진단 및 치료 모니터링에 중요 임상 판정 요소가 된다.
예를 들어, 암세포가 발생 또는 전이가 되면 림프노드의 크기가 커지게 되므로, 림프노드의 검출 및 진단을 위해, 타 구조물 특히 혈관(702)과의 분별이 비교적 용이한 조영 증강된 영상을 이용하는 것이 유리할 수 있다.
도 8에 도시된 바와 같이, 환자에게 조영제를 투여하여 촬영된 조영 증강 CT 영상에서는 림프노드(703)와 폐혈관(704)이 구분 가능하게 표시된다. 그와 비교하여 도 9의 비 조영 CT 영상에서는 림프노드가 위치된 영역(705)에서 림프노드와 혈관의 구별이 용이하지 않은 것을 확인할 수 있다.
그러나, 전술한 다양한 부작용에 의해 조영제 사용은 점차적으로 제한되고 있으며 특히, 신장 질환 환자의 경우 조영제 투여가 불가능하므로, 부득이하게 비조영 의료영상에 기반한 진단이 이루어지는 경우가 발생된다.
그에 따라, 림프노드 영역 정보가 폐암 진단 (전이 여부, 상태 변화 등) 및 폐 병변 진단에 중요한 랜드마크(Landmark)임에도 불구하고, 비조영 영상에서는 림프노드/혈관 영역의 구별이 어려워, 림프노드 관련 질환의 조기 진단을 놓치거나, 이에 대한 치료 시기를 놓치는 경우가 발생된다.
도 10은 본 발명 일 실시예에 따른 의료영상 표시장치(1000)의 구성을 도시한 블록도이고, 도 11은 도 10의 영상처리부(1030)의 구성을 도시한 블록도이다.
도 10에 도시된 바와 같이, 본 발명의 일 실시예에 따른 의료영상 표시장치(1000)는 제어부(1010), 디스플레이부(1020), 영상처리부(1030), 사용자 입력부(1040), 저장부(1050) 및 통신부(1060)를 포함한다. 다만, 도시된 구성요소들이 모두 필수 구성요소들은 아니며, 도시된 구성요소들 이외에 다른 범용적인 구성요소들이 더 포함될 수도 있다.
의료영상 표시장치(1000)가 도 2에 도시된 MRI 장치(101)에 포함되는 경우, 의료영상 표시장치(1000)의 적어도 일부는 오퍼레이팅부(260)에 대응될 수 있다. 구체적으로, 영상처리부(1030) 및 디스플레이부(1020)는 각각 도 2의 영상처리부(262) 및 출력부(264)에 대응될 수 있다. 제어부(1010)는 오퍼레이팅부(260) 및/또는 디스플레이 제어부(248)의 적어도 일부에 대응될 수 있다. 따라서, 의료영상 표시장치(1000)에 있어서, 도 2에서와 중복되는 설명은 생략한다.
또한, 의료영상 표시장치(1000)가 도 3 및 도 4에 도시된 CT 장치(102)에 포함되는 경우, 제어부(1010), 디스플레이부(1020), 영상처리부(1030), 사용자 입력부(1040) 및 저장부(1050)는 각각 도 4의 제어부(318), 디스플레이부(330), 영상처리부(326), 사용자 입력부(328) 및 저장부(324)에 대응될 수 있다. 따라서, 의료영상 표시장치(1000)에 있어서, 도 3 또는 도 4에서와 중복되는 설명은 생략한다.
또한, 의료영상 표시장치(1000)는 도 5에서 설명한 서버(534), 의료 장치(536), 휴대용 단말(538), 도 6에서 설명한 초음파 장치(610) 중 어느 하나에 포함될 수도 있다.
디스플레이부(1020)는 의료영상 표시장치의 동작과 관련된 어플리케이션을 디스플레이한다. 예를 들면, 디스플레이부(1020)는 의료 장치를 이용한 진단에 필요한 메뉴나 안내 사항 등을 디스플레이할 수 있다. 또한, 디스플레이부(1020)는 진단 과정에서 획득된 영상들과, 사용자의 의료영상 표시장치 조작을 돕기 위한 사용자 인터페이스(UI)를 디스플레이할 수 있다.
도 10에서는 의료영상 표시장치(1000)에 하나의 디스플레이부(1020)가 마련된 경우를 예로 들어 도시하였지만, 본 발명은 이에 한정되는 것이 아니며, 복수의 디스플레이부 예컨대, 메인 디스플레이와 서브 디스플레이를 포함하도록 구현될 수 있다.
본 실시예에서 디스플레이부(1020)는 적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 영상(제1 의료영상) 및/또는 제1 영상에 대해 후술하는 정합 프로세스가 수행된 제3 영상(제3 의료영상)을 디스플레이 한다. 또한, 디스플레이부(1020)는 후술하는 병변의 확장영역까지 표시하는 제4 영상(제4 의료영상)을 더 표시할 수 있다. 또한, 디스플레이부(1020)는 제1영상의 참조영상인 제2 영상(제2 의료영상)을 더 표시할 수 있다.
여기서, 제1 영상은 대상체를 촬영한 의료영상으로, MRI 영상, CT 영상 등과 같은 단층 영상, 엑스레이 영상, 초음파 영상 등 질병 진단을 위해 촬영된 모든 의료영상이 될 수 있다.
영상처리부(1030)는 디스플레이부(1020)에 영상이 표시되도록 처리한다. 구체적으로, 영상처리부(1030)는 대상체를 촬상하여 획득된 신호를 처리하여 디스플레이부(1020)에 표시 가능한 화상 데이터로 이미징할 수 있다.
의료영상을 이미징하는 방법에는 첫 번째로 엑스레이 영상의 이미징 방법과 같이 대상체로 엑스레이와 같은 광선을 조사하여 대상체를 촬영하는 방법이 있다. 이 방법은 촬영 기법 또는 스캔 모드의 구별 없이 대상체를 이미징하는 방법이다. 또한, 이 방법은 획득하고자 하는 영상을 위한 별도의 복원 또는 계산 동작 없이, 바로 대상체를 이미징할 수 있다.
두 번째로, MRI 또는 CT 영상과 같이 대상체를 촬영하는데 있어서 촬영 기법 또는 스캔 모드를 다양하게 적용하여 대상체를 이미징하는 방법이 있다. 전술한 두 번째 방법의 경우, 대상체를 스캔할 때 고려할 수 있는 다양한 변수를 이용하여, 신체의 동일 부위를 촬영하더라도 서로 다른 특성을 갖는 영상을 획득할 수 있다. 즉, 용도 또는 목적에 맞춰서 스캔 모드를 변경함으로써, 목적에 부합하는 영상을 획득할 수 있다. 또한, 이 방법은 획득하고자 하는 영상을 위한 별도의 복원 또는 계산 동작을 수행하여 목적하는 영상을 획득할 수 있다.
여기서, 대상체를 스캔하여 의료영상을 촬영하는데 있어서 적용되는 기법을 '스캔 프로토콜(scan protocol)' 또는 '프로토콜'이라 하며, 이하에서는 '프로토콜'이라 한다. 또한, 영상처리부(1030)는 획득된 영상 데이터에 소정 프로토콜를 적용하여 의료영상을 생성할 수 있다.
본 발명 일실시예에 따른 의료영상 표시장치(700)는 프로토콜을 적용하여 획득된 영상 데이터(제1 영상)를 이용하여, 계산 또는 후처리된 영상 데이터(제3 영상)를 생성할 수 있다. 본 실시예에서 계산 또는 후처리 과정은 정합 프로세스를 포함하며, 그에 따라 생성된 영상이 제3 영상 및/또는 제4 영상이 된다.
MRI 장치(101)의 경우 다양한 프로토콜을 적용하여 대상체를 스캔하며, 그에 따라서 획득된 MR 신호를 이용해 대상체에 대한 영상을 생성한다. 이하에서는, 대상체를 스캔하여 획득된 데이터, 예를 들어, MR 신호 또는 K 공간 데이터를 스캔 데이터라 하고, 스캔 데이터를 이용하여 생성된 대상체에 대한 영상을 영상 데이터라 한다. 영상 데이터는 전술한 제1 영상에 해당한다.
CT 장치(102)의 경우 조영제(contrast media)를 투여하는지 여부에 따라서 서로 다른 프로토콜을 적용하여 대상체를 스캔 할 수 있다. 또한, CT 장치(102)의 경우 획득되는 영상 데이터는 사이노그램(sonogram) 또는 프로젝션 데이터(projection data)가 될 수 있으며, 획득된 스캔 데이터를 이용하여 영상 데이터 즉, 제1 영상을 생성할 수 있다.
사용자 입력부(1040)는 사용자로부터 명령을 수신 가능하도록 제공된다. 본 실시예의 의료영상 표시장치(1040)는 사용자 입력부(1040)를 통해 사용자로부터 의료영상 표시장치(1040)를 조작하기 위한 입력을 수신하고, 그에 응답하여 의료영상 표시장치(1040)가 획득한 제1 의료영상, 제2 의료영상 및/또는 정합된 제3 의료영상(또는 제4 의료영상)이 디스플레이부(1020)를 통해 출력될 수 있다.
사용자 입력부(1040)는 사용자가 직접 의료영상 표시장치(1040)를 조작하기 위한 버튼, 키 패드, 스위치, 다이얼 또는 디스플레이부(1020) 상에 표시되는 사용자 인터페이스 즉, GUI를 포함할 수 있다. 본 발명 일실시예에서 사용자 입력부(1040)는 디스플레이부(1020) 상에 마련된 터치스크린을 포함할 수 있다.
일 실시예에서, 의료영상 표시장치(1000)는 사용자 입력부(1040)를 통해 디스플레이부(1020)에 표시된 의료영상(제1 영상)에서 적어도 하나의 지점을 선택 받을 수 있다. 여기서, 선택되는 지점은 도 9의 비 조영 CT 영상(제1 영상)에서의 림프노드/혈관 영역에 대응될 수 있으며, 디스플레이부(1020) 사용자 선택에 응답하여 영상처리부(1030)에 의해 수행되는 정합 프로세스에 따라 선택된 지점에서 림프노트와 혈관이 구분 가능하도록 처리된 영상(제3 영상)을 표시할 수 있다. 디스플레이부(1020)는 선택된 지점을 확대하여 표시할 수도 있다.
저장부(1050)는 제어부(1010)의 제어에 따라서 한정되지 않은 데이터가 저장된다. 저장부(1050)는 플래시메모리(flash-memory), 하드디스크 드라이브(hard-disc drive)와 같은 비휘발성 저장매체로 구현된다. 저장부(1050)는 제어부(1010)에 의해 액세스되며, 제어부(1010)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행된다.
저장부(1050)에 저장되는 데이터는, 예를 들면 의료영상 표시장치(1000)의 구동을 위한 운영체제를 비롯하여, 이 운영체제 상에서 실행 가능한 다양한 어플리케이션, 영상데이터, 부가데이터 등을 포함한다.
본 실시예의 저장부(1050)는 의료영상에 관련된 각종 데이터를 저장할 수 있다. 구체적으로, 저장부(1050)에는 의료영상 표시장치(1000)에서 적어도 하나의 프로토콜을 적용하여 생성된 적어도 하나의 영상 데이터 및/또는 외부로부터 수신된 적어도 하나의 의료영상 데이터가 저장된다. 또한, 저장부(1050)에는 영상 데이터에 대해 정합 프로세스를 수행하여 생성된 적어도 하나의 영상 데이터가 더 저장될 수 있다. 저장부(1050)에 저장된 영상 데이터는 디스플레이부(1050)에 의해 표시된다.
통신부(1060)는 다양한 외부장치와 통신을 수행하기 위한 유무선 네트워크 통신 모듈을 포함한다. 통신부(1060)는 외부장치로부터 수신되는 커맨드/데이터/정보/신호를 제어부(1010)에 전달한다. 또한, 통신부(1060)는 제어부(1010)로부터 전달받은 커맨드/데이터/정보/신호를 외부장치에 전송할 수도 있다.
통신부(150)는 본 실시예에 따르면 의료영상 표시장치(1000)에 내장되나, 일 실시예에서 동글(dongle) 또는 모듈(module) 형태로 구현되어 의료영상 표시장치(1000)의 커넥터(도시되지 아니함)에 착탈될 수도 있다.
또 다른 실시예에서, 통신부(1060)는 HID(Human Interface Device) 들을 연결하기 위한 I/O 포트를 포함할 수 있다. 의료영상 표시장치(1000)는 I/O 포트를 통해 유선으로 연결된 외부장치와의 영상 데이터의 송수신이 가능할 수 있다.
본 실시예의 통신부(1060)는 타 의료장치에서 생성된 의료영상 데이터를 수신할 수 있다. 여기서, 타 의료장치는 의료영상 표시장치(1000)와 같은 종류의 의료장치이거나, 다른 의료장치일 수 있다. 예를 들어, 의료영상 표시장치(1000)가 CT 장치인 경우, 타 의료장치는 다른 CT 장치일 수 있으며, 경우에 따라 타 의료장치가 MRI 장치 또는 초음파 장치일 수도 있을 것이다.
일 실시예에서, 의료영상 표시장치(1000)는 타 의료장치와 통신부(1060)를 통해 직접 연결될 수 있다. 다른 실시예에서 통신부(160)는 의료영상이 저장된 외부 저장매체와의 연결을 위한 접속부를 포함할 수 있다.
제어부(1010)는 의료영상 표시장치(1000)의 다양한 구성에 대한 제어동작을 수행한다. 예를 들면, 제어부(1010)는 영상처리부(1030)가 처리하는 영상처리/영상정합 프로세스의 진행, 사용자입력부(1040)로부터의 커맨드에 대한 대응 제어동작을 수행함으로써, 의료영상 표시장치(1000)의 전체 동작을 제어한다.
제어부(1010)는 적어도 하나의 프로세서를 포함한다. 적어도 하나의 프로세서는 프로그램이 저장된 비휘발성 메모리(ROM)로부터 휘발성 메모리(RAM)으로 대응되는 프로그램을 로드하여 실행한다.
본 실시예에 따른 제어부(1010)는 CPU(Central Processing Unit), AP(Application Processor), 마이컴(Micro Computer, MICOM)과 같은 적어도 하나의 범용 프로세서를 포함하여, 예를 들어, ROM에 저장된 소정 알고리즘에 따라 대응하는 프로그램을 RAM에 로드하여 실행함으로써 의료영상 표시장치(1000)의 다양한 동작들을 수행하도록 구현 가능하다.
의료영상 표시장치(1000)의 제어부(1010)가 단일 프로세서 예를 들어 CPU로 구현되는 경우, CPU는 의료영상 표시장치(1000)에서 수행 가능한 다양한 기능들 예를 들어, 디스플레이부(1020)에 표시되는 의료영상의 이미징을 위한 다양한 영상처리 프로세스의 진행으로서 예를 들어 적용되는 프로토콜의 선택 및 그에 따른 이미징에 대한 제어, 사용자입력부(1040)를 통해 수신된 커맨드에 대한 대응, 외부 장치와의 유무선 네트워크 통신의 제어 등을 실행 가능하도록 마련될 수 있다.
프로세서는 싱글 코어, 듀얼 코어, 트리플 코어, 쿼드 코어 및 그 배수의 코어를 포함할 수 있다. 프로세서는 복수의 프로세서, 예를 들어, 메인 프로세서(main processor) 및 서브 프로세서(sub processor)를 포함할 수 있다. 서브 프로세서는 대기전원만 공급되고 의료영상 표시장치(1000)로서 동작하지 않는 대기모드(standby mode, 이하, 슬립모드(sleep mode) 라고도 한다)에서 동작하도록 마련된다.
상기와 같은 제어부(1010)에 포함되는 프로세서, 롬 및 램은 내부 버스(bus)를 통해 상호 연결될 수 있다.
본 발명 일실시예에서 의료영상 표시장치(1000)가 랩탑 또는 데스크탑 컴퓨터로 구현되는 경우, 제어부(1010)는 본체에 마련되며 그래픽 처리를 위한 GPU(Graphic Processing Unit, 도시되지 아니함)를 더 포함할 수 있다. 또한, 다른 실시예에서 의료영상 표시장치(1000)가 스마트 폰, 스마트 패드 등의 휴대용 단말로 구현되는 경우, 프로세서가 GPU를 포함할 수 있으며, 예를 들어 프로세서는 코어(core)와 GPU가 결합된 SoC(System On Chip) 형태로 구현될 수 있다.
한편, 제어부(1010)는 의료영상 표시장치(1000)에서 지원되는 특정 기능, 예를 들어, 메인 프로세서를 포함한 소정 구성에서의 오류 발생을 감지하는 기능을 수행하기 위한 프로그램과 해당 프로그램을 실행하는 전용 프로세서로서 마련되는 칩(chip) 예를 들어, IC(integrated circuit) 칩을 포함할 수 있다.
일 실시예에서, 제어부(1010)는 사용자 입력부(1040)를 통해 의료영상의 분석이 가능한 플랫폼(platform)으로서, 소정 어플리케이션을 실행하도록 하는 사용자 명령을 수신할 수 있다. 실행된 어플리케이션은 사용자 선택이 가능한 GUI로서 각종 버튼이 표시되는 입력 영역(도 21의 2220)과, 의료영상이 표시되는 표시 영역(도 21의 2210)을 포함할 수 있다.
사용자는 어플리케이션의 입력 영역의 GUI를 이용하여 내부 또는 외부에 저장된 의료영상의 불러오기 즉, 로드(load)가 가능하며, 로드된 의료영상은 어플리케이션의 표시 영역을 통해 디스플레이부(1020)에 표시된다. 또한, 사용자는 실행된 어플리케이션에서 제1 의료영상과 제2 의료영상을 정합(registration)하도록 하는 사용자 명령을 입력할 수 있다.
본 발명 일 실시예에서 영상처리부(1030)는 하드웨어 구성인 적어도 하나의 프로세서를 포함하는 제어부(1010)에 의해 구동되는 소프트웨어 구성인 의료영상 분석 어플리케이션으로 구현될 수 있다.
즉, 이하에서 설명하는 영상처리부(1030)의 동작들은 제어부(1010)에 의해 구동되는 소프트웨어의 실행에 따라 이루어지는 것이 된다. 따라서, 영상처리부(1030)가 수행하는 각종 동작들은 제어부(1010) 즉, 적어도 하나의 프로세서에 의해 수행되는 것으로도 볼 수 있다.
본 발명 일 실시예에 따른 의료영상 표시장치(1000)의 제어부(1010)는 비 조영 의료영상 즉, 제1 의료영상에 대해 영상 정합 프로세스를 수행하도록 영상처리부(1030)를 제어한다. 여기서, 영상처리부(1030)는 제1 의료영상과, 제2 의료영상을 이용하여 제1 의료영상에 대한 영상 정합을 수행할 수 있다.
제2 의료영상은 타 시점에 획득된 조영 증강된 의료영상으로서, 제1 의료영상의 참조영상이 된다. 예를 들어, 조영 증강 의료영상은 과거의 소정 시점에 대상체를 촬상한 영상으로서, 타 의료기기, 서버 등에 저장되어 통신부(1060)를 통해 의료영상 표시장치(1000)로 로드되거나, 내부 또는 외부의 저장부(1050)에 미리 저장될 수 있다.
일 실시예에서 조영 증강 의료영상은 제1 의료영상과 동일 대상체 즉, 동일 환자에 대해 과거에 촬영된 의료영상일 수 있다. 사용자는 환자에 대한 히스토리 정보를 이용하여 제2 의료영상으로 사용 가능한 조영 증강 의료영상을 선택할 수 있다. 여기서, 사용자는 적어도 하나의 조영 증강 의료영상을 제2 의료영상으로 선택할 수 있다. 또한, 제2 의료영상은 동일 대상체에 대해 과거에 촬영된 복수의 조영 증강 의료영상을 이용하여 생성된 영상일 수 있다.
다른 실시예에서 조영 증강 의료영상은 표준화된 의료영상일 수 있다. 예를 들어, 복수의 대상체에 대한 뇌 CT 영상이 축적된 의료영상 데이터 베이스에 저장된 정보를 이용하여, 제1 의료대상의 대상체와 유사한 조건 즉, 나이, 성별, 질병의 진행 정도 등을 가지는 대상체들에 대해 촬상된 조영 증강 의료 영상들을 이용하여 생성된 표준화된 의료영상이 될 수 있다.
즉, 이하에서 설명하는 일 실시예에서는 하나의 조영 증강 의료영상을 이용한 영상 정합을 예로 들어 설명하지만, 복수의 조영 증강 의료영상이 이용되는 경우도 본 발명의 권리범위에서 제외되는 것은 아니다.
영상처리부(1030)는 제2 의료영상을 분할 즉, 세그멘테이션(segmentation)하여 적어도 하나의 해부학적 개체를 추출한다. 구체적으로, 영상처리부(1030)는 제1 의료영상의 참조영상인 제2 의료영상으로부터 적어도 하나의 해부학적 개체에 대응하는 참조영역정보를 추출할 수 있다.
여기서, 해부학적 개체는 복수일 수 있으며, 그에 따라 영상처리부(1030)는 제1 개체(이하, 제1 해부학적 개체 라고도 한다)에 대응하는 영역과 제1 개체와 다른 제2 개체(이하, 제2 해부학적 객체 라고도 한다)에 대응하는 영역을 제2 의료영상으로부터 더 추출할 수 있다.
일 실시예에서 제1 개체는 혈관이고, 제2 개체는 림프노드일 수 있다. 또한, 다른 실시예에서 제1 개체는 혈관이고, 제2 개체는 기관지일 수 있다.
영상처리부(1030)는 제2 의료영상으로부터 추출된 참조영역정보를 이용하여 제1 의료영상과 제2 의료영상을 정합한다. 여기서, 정합된 영상은 제3 의료영상으로 디스플레이부(1020)에 표시되며, 제3 의료영상에서는 검출된 해부학적 개체의 다른 영역 즉, 검출된 해부학적 개체가 아닌 영역과 구분하여 표시된다.
여기서, 영상처리부(1030)는 영상 정합을 수행하는데 있어 제1 의료영상의 해부학적 개체와 제2 의료영상의 해부학적 개체 간의 기하학적 관계를 이용할 수 있으며, 기하학적 관계란 해부학적 개체들의 상대적인 위치 관계를 나타내는 벡터(vector)를 포함할 수 있다.
의료영상들의 정합은 제1 의료영상과 제2 의료영상의 좌표를 서로 대응시키는 과정을 포함한다. 본 실시예에서 제1 의료영상과 제2 의료영상은 각각 DICOM(Digital Imaging and Communication in Medicine)에 따른 좌표계를 사용하여 생성된 의료영상이 될 수 있다.
영상처리부(1030)는 제1 의료영상과 제2 의료영상의 정합 과정을 통해서, 제2 의료영상의 좌표를 제1 의료영상의 좌표로 변환 또는 역변환하는 좌표 변환함수를 산출한다. 여기서, 좌표 변환함수는 후술하는 동형정합 과정에서 산출되는 이전시점의 해부학적 개체의 고유 특성이 유지된 제1 변환식과, 이형정합 과정에서 산출되는 두 영상 정보가 완전히 일치되는 제2 변환식을 포함할 수 있다.
영상처리부(1030)는 좌표 변환함수를 이용하여, 제1 의료영상과 제2 의료영상의 좌표와 뷰(View)를 동기화할 수 있다.
일 실시예에서, 정합된 영상은 제1 의료영상이 변환된 영상일 수 있다. 다른 실시예에서 정합된 영상은 제1 의료영상과 제2 의료영상이 융합된 영상(fusion image)일 수 있다. 디스플레이부(1020)는 제1 의료영상을 디스플레이하고, 제1 의료영상과 제2 의료영상의 정합에 따라 생성된 제3 의료영상 및/또는 제4 의료영상을 디스플레이할 수 있다.
도 12는 본 발명 일실시예에 따른 제1 의료영상(1210)을 도시한 도면이다.
본 실시예에서 제1 의료영상(1210)은 대상체에 대하여 비교적 최근에 촬영된 영상이다. 제1 의료영상(1210)은 대상체에 조영제가 투여되지 않은 상태에서 촬영된 비조영 영상으로, 예를 들어 도 12와 같은, 뇌 CT 영상일 수 있다. 다른 실시예로 제1 의료영상(1210)은 실시간 디스플레이가 가능한 촬영 영상 예를 들어, 초음파 영상일 수 있다.
도 12에 도시된 바와 같이, 제1 의료영상(1210)은 비조영 CT 영상이므로, 영상(1210) 내에서 제1 개체와 제2 개체 즉, 혈관과 림프노드의 구분 즉, 식별이 용이하지 않다.
사용자는 사용자 입력부(1040)를 이용하여 제1 의료영상(1210)에서 혈관과 림프노드가 위치할 것으로 예상되는 영역(1211)을 선택할 수 있다. 제어부(1010)는 도 12와 같이, 선택된 영역(1211)을 확대하여 표시하도록 디스플레이부(1020)를 제어할 수 있다. 확대된 영역(1211)에서도 혈관과 림프노드는 식별되지 않는다.
도 13은 본 발명 일실시예에 따른 제2 의료영상(1310)을 도시한 도면이며, 도 14는 개체가 추출된 제2 의료영상(1410)을 도시한 도면이다.
제2 의료영상(1310)은 대상체에 조영제가 투여된 상태에서 촬영된 조영 증강 영상으로 예를 들어 도 13 및 도 14와 같이 뇌 CT 영상일 수 있다.
도 11을 참조하면, 영상처리부(1030)는 제1 개체 추출부(1031), 제2 개체 추출부(1032) 및 정합부를 포함한다. 정합부는 좌표 변환부(1033), 동형정합부(1034) 및 이형정합부(1035)를 포함한다.
일 실시예에서 영상처리부(1030)는 2개의 해부학적 개체가 추출되도록 제1 개체 추출부(1031)와 제2 개체 추출부(1032)를 포함하는 것으로 예시하나, 이에 한정되지 않는다. 즉, 보다 많은 개수 예를 들어, 3개 이상의 해부학적 개체들을 추출하여, 제3 의료영상을 통해 식별 가능하게 표시할 수 있다.
또한, 다른 실시예에서 영상처리부(1030)에는 하나의 개체 추출부가 마련되어, 제2 의료영상으로부터 제1 개체의 영역을 추출하고, 제1 개체의 영역을 제1 개체를 제외한 다른 영역과 구분하여 표시할 수 있다. 예를 들어, 제1 개체 영역은 혈관 영역으로, 혈관 영역과 혈관이 아닌 영역이 구분되어 표시된다. 여기서, 혈관이 아닌 영역은 림프노드 영역을 포함한다. 다른 실시예에서, 혈관이 아닌 영역은 기관지 영역을 포함할 수 있다.
제1 개체 추출부(1031)와 제2 개체 추출부(1032)는 각각 제2 의료영상에서 제1 해부학적 개체의 영역정보와 제2 해부학적 개체의 영역정보를 추출한다. 이렇게 추출된 제1 개체 및 제2 개체의 영역들은 참조영역으로서, 추출된 영역정보는 정합부에 의해 참조영역정보로 활용된다.
제1 개체 추출부(1031)는 제1 개체의 해부학적 특징을 이용하여 제2 의료영상에서 제1 개체에 대응하는 영역을 추출하고, 제2 개체 추출부(1032)는 제2 개체의 해부학적 특징을 이용하여 제2 의료영상에서 제2 개체에 대응하는 영역을 추출한다.
제1 개체 추출부(1031)는 제1 개체의 영역을 결정하기 위하여, 제2 의료영상에 포함된 각 픽셀들에 대한 밝기 값을 이용할 수 있다.
구체적으로, 제1 개체 추출부(1031)는 조영 증강된(contrast enhanced) 제2 의료영상에서 기 설정된 제1 범위 내의 밝기 값을 가지는 지점들을 검출하고, 검출된 지점들을 포함하는 제1 개체에 대응하는 영역을 결정할 수 있다. 다른 실시예로서, 사용자 입력부(1040)에 의해 제2 의료영상 내의 특정 지점이 선택되면, 제1 개체 추출부(1031)는 선택된 지점과 유사한 해부학적 특징을 갖는 지점들을 검출하기 위하여, 선택된 지점과의 밝기 값의 차이, 즉 콘트라스트가 제1 임계값 이하인 지점들을 검출하여, 검출된 지점들을 포함하는 제1 개체 영역을 결정할 수 있다.
제2 개체 추출부(1032)는 조영 증강된(contrast enhanced) 제2 의료영상에서 기 설정된 제 2 범위 내의 밝기 값을 가지는 지점들을 검출하고, 검출된 지점들을 포함하는 제 2 개체에 대응하는 영역을 결정할 수 있다. 다른 실시예로서, 사용자 입력부(1040)에 의해 제2 의료영상 내의 특정 지점이 선택되면, 제2 개체 추출부(1032)는 선택된 지점과 유사한 해부학적 특징을 갖는 지점들을 검출하기 위하여, 선택된 지점과의 밝기 값의 차이, 즉 콘트라스트가 제2 임계값 이하인 지점들을 검출하여, 검출된 지점들을 포함하는 제2 개체 영역을 결정할 수 있다.
밝기 값에 대한 제1 범위와 제2 범위는 제1 개체와 제2 개체 각각의 해부학적 특징에 대응하여 미리 설정될 수 있다. 마찬가지로, 제1 임계값과 제2 임계값은 제1 개체와 제2 개체 각각의 해부학적 특징에 대응하여 미리 설정되거나, 경우에 따라 제1 임계값과 제2 임계값이 같은 값으로 설정될 수 있다.
제어부(1010)는, 도 14에 도시된 바와 같이, 제2 의료영상에서 추출된 참조영역인 제1 개체 영역(1411)과 제2 개체 영역(1412)을 식별되게 표시하도록 디스플레이부(1020)를 제어할 수 있다. 사용자는 도 14의 표시된 영상(1410)을 이용하여 제1 개체에 대응하는 혈관 영역(1411)과, 제2 개체에 대응하는 림프노드 영역(1412)를 각각 확인하고, 이를 진단에 활용할 수 있다.
제1 개체 추출부(1031)와 제2 개체 추출부(1032)에 의해 추출된 제1 개체 영역의 정보와 제2 개체 영역의 정보는 정합부로 전달된다.
정합부는 소정 알고리즘에 기초하여 제1 의료영상과 제2 의료영상을 정합한다. 정합부는 참조영역정보 즉, 제1 개체 추출부(1031)로부터 수신한 제1 개체 영역의 정보와 제2 개체 추출부(1032)로부터 수신한 제2 개체 영역의 정보를 이용하여 제1 의료영상과 제2 의료영상을 정합할 수 있다.
즉, 제2 의료영상에서 분할된 제1 개체 영역(1411)과 제2 개체 영역(1412)은 영상처리부(1030) 내 정합부의 영상정합 과정을 통해 제1 의료영상의 제1 개체 영역과 제2 개체 영역에 각각 매칭(matching)된다.
도 15는 본 실시예에 따른 영상 정합 과정을 설명하기 위한 도면이다.
본 발명 실시예에 따른 의료영상 표시장치(1000)에서 영상정합(image registration)은, 도 15에 도시된 와 같이, 캡쳐된 동일 화면(captured same scene)에서의 서로 다른 영상 데이터 세트(different sets of image data) 즉, I f 와 I m 을 하나의 좌표 시스템으로 변환(transforming)하는 프로세스를 포함하며, 정합 대상인 영상들(I f '와 I m ) 간의 유사도(similarity)는 최대화하고 비용(cost)은 최소화하도록 하는 최적화 알고리즘(optimization algorithms)에 의해 구현된다.
예를 들어, 영상정합은 소정 변환 모델 파라미터를 이용하여 아래 수학식 1과 같이 유사도 측정 함수(similarity measure)의 결과값이 최대가 되거나, 수학식 2와 같이 비용 함수(cost function)의 결과값이 최소가 되는 최종 파라미터(Pfinal)를 찾는 과정을 포함하게 된다. 여기서, 최종 파라미터를 찾는 과정에는 후술하는 동형정합과 이형정합이 포함될 수 있다.
Figure pat00001
Figure pat00002
여기서, If는 고정된 영상(fixed image)로서 예컨대 비조영 영상인 제1 의료영상이고, Im 은 이동 영상(moving image)으로서 예컨대 조영 증강 영상인 제2 의료영상이 된다. 또한, S는 유사도 측정 함수(similarity measure)이고, C는 비용 함수(cost function)이고, P는 변환모델의 파라미터 세트(parameter set of transformation model)가 된다.
상기와 같은 본 발명 실시예에서 사용 가능한 변환모델 파라미터는 강체변환(rigid transformation), 어파인변환(affine transformation), 박판 스플라인 자유형태 변형기법(TPS FFD: thin-plate-spline free form deformation), B 스플라인(B-spline) FFD, 탄성모델(elastic model) 등을 포함한다.
또한, 비용 함수의 결과값은 유사도(또는 비유사도) 측정 함수(Similarity (or Dis-similarity) measure)와 정규화 메트릭(Regularization metric) 각각에 대해 부여된 가중치(weight)에 의해 결정될 수 있다.
유사도 또는 비유사도 측정 함수는 Mutual information (MI), Normalized mutual information (NMI), Gradient-magnitude, Gradient-orientation, Sum of Squared Difference (SSD), Normalized Gradient-vector Flow (NGF), Gradient NMI (GNMI) 등을 포함한다. 또한, 정규화 메트릭은 Volume regularization, Diffusion regularization, Curvature regularization, Local rigidity constraint 등을 포함한다.
좌표 변환부(1033)는 제1 의료영상과 제2 의료영상의 좌표계를 서로 매핑(mapping)시킨다. 여기서, 좌표계 매핑은 제1 의료영상의 좌표계와 제2 의료영상의 좌표계를 서로 맞춰주는 것으로, 예를 들어 좌표 변환부(1033)는 제1 의료영상의 제1 해부학적 개체가 배치된 방향을 따라 제2 의료영상의 제1 해부학적 개체(참조영역)가 배치될 수 있도록 제2 의료영상의 좌표계를 정렬(align)할 수 있다. 여기서, 좌표 변환부(1033)는 제1 의료영상과 제2 의료영상의 제1 해부학적 개체들 간에 정렬 상태가 어긋나지 않는 범위에서 제2 의료영상을 회전 또는 이동할 수 있다.
본 발명 일 실시예에서 영상처리부(1030)는 좌표 변환부(1033)를 통해 좌표계가 맞춰진 제1 의료영상과 제2 의료영상에 대해 동형정합과 이형정합을 순차적으로 수행하게 된다.
도 16은 동형정합 프로세스를 개념적으로 도시한 도면이며, 도 17은 이형정합 프로세스를 개념적으로 도시한 도면이다.
동형정합(Homogeneous registration)은, 도 16에 도시된 바와 같이, 영상 정합 시, 이동영상(moving image)의 영상 특성(모양)은 유지한 상태로, 고정영상(fixed image)에 매칭되도록 하는 것이다.
이형정합(In-homogeneous registration)은, 도 17에 도시된 바와 같이, 영상 정합 시, 이동영상(moving image)의 영상 특성(모양)을 변형시켜, 고정영상(fixed image)에 완전히 매칭되도록 하는 것이다.
일 실시예에서 동형정합부(1034)와 이형정합부(1035)는 좌표가 매칭된 정합 대상인 영상들(I f '와 I m ) 간의 변환 과정을 통해 비용 함수(cost function)를 연산하고, 연산된 비용 함수에 기초하여 파라미터(P)를 업데이트하는 과정을 반복적으로 수행하여, 결과적으로 비용 함수의 결과값이 최소가 되도록 하는 최종 파라미터(Pfinal)를 찾게 된다.
여기서, 유사도(또는 비유사도) 측정 함수(Similarity (or Dis-similarity) measure)와 정규화 메트릭(Regularization metric) 각각에 대해 부여된 가중치(weight)를 점차적으로 변경시키는 방식으로 동형정합이 수행되고 이어서 이형정합이 수행될 수 있으며, 가중치의 변경은 이동영상으로 사용되는 제2 의료영상의 자유도를 점차 증가시키는 방향으로 수행될 수 있다.
즉, 도 11에서는 편의상 영상처리부(1030)이 동형정합부(1033)와 이형정합부(1034)를 포함하는 것으로 도시하였으나, 동형정합과 이형정합이 완전히 분리되어 이루어지는 프로세스는 아니며, 가중치를 변경하여 P를 업데이트하는 과정들에서 전반에 이루어지는 일부 과정은 동형정합에 대응되며, 그에 연속하여 후반에 이루어지는 일부 과정이 이형정합에 대응된다.
또한, 도 11에서는 동형정합이 완료된 이후에도 계속해서 이형정합이 완료될까지 과정들이 반복적으로 수행되도록 도시되었으나, 본 발명은 동형정합만 수행하고, 이형정합은 수행되지 않도록 구현될 수 있다.
도 18은 본 발명 실시예에서 정합 프로세스를 수행하는 과정들을 도시한 흐름도이다.
일 실시예에서 영상처리부(1030)는 도 18의 알고리즘에서 P를 계속해서 업데이트시키는 과정을 통해, 변환모델(Transformation model)과 비용함수(Cost function)를 구성하는 정규화 메트릭(Regularization metric)을 디자인하는 방식으로, 동형정합 및 이형정합에서 다른 결과를 유도할 수 있다. 이 과정에서 Rigid global model, Non-rigid global model, Rigid local model, Non-rigid local model 등의 알려진 모델들이 사용된다.
도 18을 참조하면, 영상처리부(1030)는 먼저 변환 모델 파라미터(P)를 초기화한다(initialize)(S1801).
그리고, 제2 의료영상(I m )이 제1 의료영상(I f )의 좌표계가 맞춰지도록 제2 의료영상을 변환한다(transform)(S1803). 일 실시예에서 좌표계의 매핑은 어파인 공간(Affin space)에 따른 좌표계를 사용할 수 있으며, 이 경우 S1803의 과정을 어파인 정렬(Affine Registration)이라고도 한다.
다음, S1803의 과정에서 변환된 제2 의료영상 (I m ')과 제1 의료영상(I f )의 오버랩된 영역(overlapped regions)들 내의 픽셀들을 사용하여 비용 함수(C)를 연산한다(calculate)(S1805). 여기서, 비용함수(C)의 결과값은 유사도 (또는 비유사도) 측정 함수(Similarity (or Dis-similarity) measure)와 이전 정보(prior information)에 기초한 정규화 메트릭(Regularization metric)을 이용하여 결정되며, 예컨대 유사도 측정함수와 정규화 메트릭 각각에 대해 부여된 가중치(weight)의 합(sum)에 의해 결정될 수 있다. 오버랩된 영역들은 예를 들어 적어도 하나의 해부학적 개체에 대응하는 영역들이 될 수 있을 것이다.
영상처리부(1030)는 S1805의 과정에서 연산된 비용함수(C)의 결과값이 최소가 되는지를 판단한다(S1807).
S1807의 판단 결과에 따라 변환 모델 파라미터(P)는 업데이트된다(S1809).
영상처리부(1030)는, S1807의 과정에서의 판단 결과에 기초하여, S1803 내지 S1807의 과정을 비용함수의 결과값이 최소가 될 때까지 반복적으로 수행한다. 이 과정이 동형정합과 이형정합의 프로세스이며, 각각에 대해 최적화된 알고리즘(optimization algorithms)을 찾아내는 과정이 된다.
상기와 같은 과정들을 거쳐 의해 동형정합부(1034)는 이전 시점의 림프노드와 혈관 정보의 고유 특성이 유지된 최적화된 알고리즘으로서 제1 변환식 정보를 획득한다.
또한, 이형정합부(1035)는 두 영상 정보가 완전히 일치된 최적화된 알고리즘으로서 제2 변환식 정보를 획득한다. 일 실시예에서 이형정합은 제2 해부학적 개체 예를 들어, 림프노드의 변화를 추적하는 정량화 과정이 될 수 있으며, 정량화에 따라 림프노드의 변화 정도가 의료영상에서 표시 가능하도록 수치화될 수 있다.
여기서, 유사도 (또는 비유사도) 측정 함수를 통해 I f ' 와 I m 간의 영상의 일치 여부가 평가될 수 있으며, 유사도(또는 비유사도) 측정 함수와 정규화 메트릭 각각에 대해 부여되는 가중치(weight)가 동형정합과 이형정합을 구분하는 팩터(factor)가 될 수 있다.
일 실시예에서 영상처리부(1030)는 상기와 같은 동형정합 프로세스에 따라 제1 의료영상으로부터 제3 의료영상을 생성한다. 그리고, 상기의 이형정합 프로세스에 따라 제3 의료영상으로부터 제4 의료영상을 더 생성할 수 있다.
제어부(1010)는 영상처리부(1030)에 의해 생성된 제3 의료영상 및/또는 제4 의료영상을 표시하도록 디스플레이부(1020)를 제어한다.
도 19는 본 발명 일실시예에 따른 제3 의료영상(1910)을 도시한 도면이며, 도 20은 제4 의료영상(1610)을 도시한 도면이며, 도 21은 도 20에서 일부 개체 영역을 확대하여 도시한 도면이다.
제어부(1010)는, 도 19에 도시된 바와 같이, 동형정합에 따라 생성된 제3 의료영상에서 제1 개체 영역(1911)과 제2 개체 영역(1912)을 식별되게 표시하도록 디스플레이부(1020)를 제어할 수 있다. 따라서, 사용자는 도 12에서 식별되지 않았던 제1 개체에 대응하는 혈관 영역(1911)과, 제2 개체에 대응하는 림프노드 영역(1912)을 각각 확인하고, 이를 진단에 활용할 수 있다.
여기서, 제어부(1010)는, 디스플레이부(1020)에서 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해 검출된 해부학적 개체의 영역이 해부학적 개체가 아닌 영역과 구분하여 표시되도록 할 수 있다. 검출된 해부학적 개체의 영역이 복수인 경우, 복수의 영역 각각에 대해 다른 색상, 패턴, 포인터, 하이라이트, 애니메이션 효과가 적용될 수 있다. 또한, 복수의 영역에 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과를 조합하여 적용할 수 있다. 예를 들어, 제1 개체 영역(1911)은 색상에 의해, 제2 개체 영역(1912)에는 패턴에 의해 구분되게 표시될 수 있으며, 제1 개체 영역(1911)에 소정 패턴 및 포인터를 부여하여 그 이외의 영역과 구분되게 표시하는 등 다양하게 변형하여 실시 가능할 것이다.
즉, 도 19에서는 검출된 제1 개체 영역(1911)과 제2 개체 영역(1912)이 패턴에 의해 구분되어 표시되는 것을 예로 들어 도시하였으나, 사용자가 시각적으로 식별 가능하게 구분되는 다양한 실시예들이 적용 가능하다.
여기서, 패턴은 복수의 가로선, 세로선, 소정 방향으로의 사선, 원형을 포함하는 다양한 형태의 점무늬, 물결무늬 등을 포함한다. 포인터는 검출된 영역의 둘레를 따라 표시되는 실선, 다양한 형태의 점선을 포함하며, 포인터의 밝기는 주변 영역보다 밝게 표시될 수 있다. 하이라이트는 검출된 영역의 밝기를 다른 영역과 다르게 예를 들어 더 밝게 표시하는 것을 포함한다. 애니메이션 효과는 소정 시각 간격으로의 깜빡임, 점차적으로 밝아짐/어두워짐 등의 다양한 시각적 효과를 검출된 영역에 적용하는 것이 된다.
도 19에 도시된 바와 같은, 해부학적 개체의 영역(1911, 1912)의 구분 표시는 사용자 선택에 의해 활성화 또는 비활성화 가능하다. 즉, 사용자는 사용자 입력부(1040)를 조작하여 제1 영역(1911)과 제2 영역(1912)를 색상 등에 의해 구분되어 표시하는 기능을 활성화 시킬 수 있으며, 사용자는 해당 기능을 활성화시키는 사용자 입력을 할 수 있다.
이를 위해, 개체 구분의 활성화 여부를 선택 가능한 사용자 인터페이스 즉, GUI가 디스플레이부(1020)에 표시되거나, 사용자 입력부(1040)가 개체 구분 기능에 대응하도록 할당된 토글 스위치를 포함하는 등, 다양한 방식으로 사용자 선택이 가능하도록 제공될 수 있다.
또한, 사용자 입력부(1040)를 통해 검출된 해부학적 개체의 구분 표시의 레벨(즉, 정도 또는 강도 등)을 조정할 수도 있다. 즉, 본 발명에서의 의료영상 표시장치(1000)는 사용자의 선호도, 취향 등에 따라 다양한 방식으로 해부학적 개체들의 구분 표시가 가능하도록 마련될 수 있다.
한편, 도 20에 도시된 바와 같이, 이형정합까지 수행하여 생성된 제4 의료영상(2010)에서는 제1 개체 영역(2011)과 제2 개체 영역(2012)이 식별되게 표시될 뿐 아니라, 이전 시점에 대한 제2 개체 영역(2012)의 변화까지 추적하여 표시할 수 있다. 여기서 이전 시점이란 제2 의료영상이 촬영된 시점이 될 수 있다.
그에 따라, 림프노드 영역(2012) 내에서 병변확장영역(2014)을 표시함으로써, 사용자의 진단이 보다 용이하게 된다.
사용자는 사용자 입력부(1040)를 이용하여 소정 영역을 확대하여 표시하도록 하는 명령할 수 있으며, 그에 응답하여 도 21과 같이 제4 의료영상(2110)에서 제1 개체에 대응하는 혈관 영역(2111)과, 제2 개체에 대응하는 림프노드 영역(2112)이 식별 가능하게 표시되며, 림프노드 영역(2112) 내에서 기존 병변 영역(2113)과 병변 확장 영역(2114)이 구분 가능하며, 사용자는 병변의 확장되는 정도를 판단함으로써 진단에 활용할 수 있게 된다.
제어부(1010)는 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해, 도 20 및 도 21에서, 기존 병변 영역(2113)과 병변 확장 영역(2114)을 구분하여 표시하도록 디스플레이부(1020)를 제어할 수 있다. 여기서, 제어부(1010)는 기존 병변 영역(2013, 2113) 또는 병변 확장 영역(2014, 2114)에 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과를 조합하여 적용할 수 있다. 예를 들어, 기존 병변 영역(2013, 2113)은 패턴에 의해, 병변 확장 영역(2014, 2114)에는 포인터에 의해 구분되게 표시될 수 있으며, 병변 확장 영역(2014, 2114)에 소정 패턴 및 하이라이트를 부여하여 그 이외의 영역과 구분되게 표시하는 등 다양하게 변형 실시 가능할 것이다.
도 20 및 도 21에 도시된 바와 같은, 병변 확장 영역(2114)의 구분 표시는 사용자 선택에 의해 활성화 또는 비활성화 가능하다. 즉, 사용자는 사용자 입력부(1040)를 조작하여 병변 확장 영역(2114)이 색상 등에 의해 구분되어 표시하는 기능을 활성화 시킬 수 있으며, 사용자는 해당 기능을 활성화시키는 사용자 입력을 할 수 있다.
이를 위해, 확장 영역 구분의 활성화 여부를 선택 가능한 사용자 인터페이스 즉, GUI가 디스플레이부(1020)에 표시되거나, 사용자 입력부(1040)가 확장 영역 구분 기능에 대응하도록 할당된 토글 스위치를 포함하는 등, 다양한 방식으로 사용자 선택이 가능하도록 제공될 수 있다. 사용자는 확장 영역 구분을 활성화/비활성화하도록 선택함으로써, 병변의 확장 정도를 보다 용이하게 파악할 수 있다.
또한, 사용자 입력부(1040)를 통해 검출된 기존 병변 영역(2113)과 병변 확장 영역(2114) 각각의 표시 레벨(즉, 정도 또는 강도 등)을 조정할 수도 있다. 즉, 본 발명에서의 의료영상 표시장치(1000)는 사용자의 선호도, 취향 등에 따라 다양한 방식으로 해부학적 개체 내에서 구분 표시가 가능하도록 마련될 수 있다.
도 22는 본 발명 일 실시예에서 의료영상 표시장치에서 의료 진단 기능을 가지는 어플리케이션의 구동에 따라 표시되는 화면을 도시한 도면이다.
도 22에 표시된 의료영상(2210)은 영상 정합 프로세스가 수행된 결과를 표시하는 영상으로, 제1 해부학적 개체(2211)와 제2 해부학적 개체(2112) 및 제2 해부학적 개체(2112) 내의 기존 병변 영역(2113)과 병변 확장 영역(2114)이 구분 가능하게 표시된 표시영역의 좌측에 사용자 선택이 가능한 사용자 인터페이스 즉, 다양한 GUI가 포함된 입력영역(2220)이 위치됨을 확인할 수 있다.
사용자는 실행된 어플리케이션에서 표시영역(2110)에 제1 의료영상이 표시된 상태에서, 입력영역(2220)의 사용자 인터페이스의 소정 버튼을 선택하여, 제2 의료영상으로 사용 되는 참조영상을 불러와 제1 의료영상의 영상정합에 활용할 수 있다.
즉, 도 22의 표시영역(2210)에는 도 12 내지 도 14 및 도 19 내지 도 21에 도시된 영상들을 포함하여 다양한 의료영상들이 모두 표시될 수 있다. 또한, 표시영역(2210)에 대한 영역 분할을 통해, 도 12 내지 도 14 및 도 19 내지 도 21의 영상들을 포함한 2 이상의 영상이 비교 가능하도록 가로 및/또는 세로 방향으로 표시 가능하다.
아울러, 디스플레이부(1020)가 복수 예컨대, 메인 디스플레이와 서브 디스플레이를 포함하도록 마련되는 경우, 다양한 조합으로 2 이상의 영상들이 비교 가능하게 표시될 수 있을 것이다.
도 23 내지 도 26은 본 발명의 실시예에 따른 의료영상 표시장치(1000)에서 영상 정합을 진단에 활용하는 다양한 예시들을 도시한 도면들이다.
도 23에 도시된 본 발명 일 실시예에서, 의료영상 표시장치(100)의 제어부(1010)는 전술한 바와 같이 제1 의료영상(비조영 의료영상)(2301)과 제2 의료영상(타 시점 획득 조영증강 의료영상)(2311)을 각각 획득하고, 이들을 정합한 융합 디스플레이를 생성하도록 한다.
융합 디스플레이 생성 과정은 비조영 의료영상과 타 시점 획득 조영증강 의료영상과의 영상 정합(2302), 정합에 따라 생성된 영상의 변환 및 전파(2303), 영역 교정(2304)의 과정을 포함한다.
여기서, 타 시점 획득 조영증강 의료영상에 대해 소정 해부학적 개체들 즉, 림프노드와 혈관 영역을 분할하고(2312), 이를 두 의료영상의 좌표를 대응시키기 위한 변환 및 전파(2303)와 영역 교정(2304)에 이용할 수 있다. 영역 교정(2304)이 완료되면, 그 결과로 융합된 영상이 정합 영상으로서 디스플레이된다(2305).
그리고, 영상의 정합, 변환 및 전파, 교정이 순차적으로 수행됨에 따라, 타 시점 획득 조영 증강 의료영상에 대하여 당해 촬영된 비조영 의료영상에서의 림프노드의 변화를 비교하는 정량화가 이루어지고(2313), 그 정량화 결과가 디스플레이된다.
도 24에 도시된 다른 실시예에서, 의료영상 표시장치(100)의 제어부(1010)는 제1 의료영상(비조영 의료영상)(2401)과 제2 의료영상(타 시점 획득 조영증강 의료영상)(2411)을 각각 획득하고 이들을 정합한 융합 디스플레이를 생성하도록 하며, 이 과정에서 의료영상 데이터페이스로부터 데이터를 로드하고(2421), 기계학습을 수행하여(2422) 이를 영역교정(2404) 과정에 더 활용할 수 있다.
의료영상 데이터베이스에는 다양한 정보가 저장되어 있으며, 제어부(1010)는 저장된 정보 중 대상체와 유사한 조건(대상체의 나이, 성별, 병변의 진행 정도 등)의 데이터(영상 포함)를 분류하고, 분류된 데이터를 이용한 트레이닝(training) 과정을 통해 데이터를 예측하는 기계학습을 진행할 수 있다.
제어부(1010)는 기계학습에 따라 예측된 데이터를 상기 다른 실시예의 영상 정합 과정에서의 분할 및 정랑화에 활용하도록 영상처리부(1030)를 제어할 수 있다. 이 경우, 제2 영상(타 시점의 조영증강 의료영상)으로부터 추출된 참조정보만을 이용하는 실시예와 비교하여, 영상정합의 정확도가 보다 향상될 수 있을 것이다.
융합 디스플레이 생성 과정은 비조영 의료영상과 타 시점 획득 조영증강 의료영상과의 영상 정합(2401), 정합에 따라 생성된 영상의 변환 및 전파(2402), 영역 교정(2403)의 과정을 포함한다.
여기서, 타 시점 획득 조영증강 의료영상에 대해 소정 해부학적 개체들 즉, 림프노드와 혈관 영역을 분할하고(2412), 이를 두 의료영상의 좌표를 대응시키기 위한 변환 및 전파(2403)와 영역 교정(2404)에 이용할 수 있다. 영역 교정(2404)이 완료되면, 그 결과로 융합된 영상이 정합 영상으로서 디스플레이된다(2405).
영상의 정합, 변환 및 전파, 교정이 순차적으로 수행됨에 따라, 타 시점 획득 조영 증강 의료영상에 대하여 당해 촬영된 비조영 의료영상에서의 림프노드의 변화를 비교하는 정량화가 이루어지고(2413), 그 과정에서 기계학습에 따른 데이터가 더 활용된다. 그리고, 정량화 결과가 디스플레이된다(2414).
도 25에 도시된 또 다른 실시예에서, 의료영상 표시장치(100)의 제어부(1010)는 제1 의료영상(비조영 의료영상)(2501)과 제2 의료영상(타 시점 획득 조영증강 의료영상)(2511)을 각각 획득하고 이들을 정합한 융합 디스플레이를 생성하도록 하며, 이 과정에서 표준 영상/모델을 더 활용할 수 있다. 예를 들어, 제어부(1010)는 표준 영상/모델에 저장된 데이터로부터 대상체와 유사한 조건(대상체의 나이, 성별, 병변의 진행 정도 등)에 해당하는 복수의 영상을 로드하고(2521), 로드된 영상들에 대한 영상정합(2522)과 변환 및 전파(2523)를 수행할 수 있다.
융합 디스플레이 생성 과정은 비조영 의료영상과 타 시점 획득 조영증강 의료영상과의 영상 정합(2502), 정합에 따라 생성된 영상의 변환 및 전파(2503), 영역 교정(2504)의 과정을 포함한다.
여기서, 타 시점 획득 조영증강 의료영상에 대해 소정 해부학적 개체들 즉, 림프노드와 혈관 영역을 분할하는데(2512), 이를 의료영상들의 좌표를 대응시키기 위한 변환 및 전파(2503)와 영역 교정(2504)에 이용할 수 있다. 여기서, 표준 영상/모델로부터 영상 정합(2522)과 변환 및 전파(2523)가 수행된 데이터를 더 활용한다. 획득한 영역 교정(2504)이 완료되면, 그 결과로 융합된 영상이 정합 영상으로서 디스플레이된다(2505).
영상의 정합, 변환 및 전파, 교정이 순차적으로 수행됨에 따라, 타 시점 획득 조영 증강 의료영상에 대하여 당해 촬영된 비조영 의료영상에서의 림프노드의 변화를 비교하는 정량화가 이루어지고(2513), 그 과정에서 표준 영상/모델의 데이터가 더 활용됨으로써, 영상 정합의 정확도가 보다 향상될 수 있을 것이다. 그리고, 정량화 결과가 디스플레이된다(2514).
도 26에 도시된 또 다른 실시예에서, 대상체에 대해 타 시점에 촬상된 조영 증강 영상이 존재하지 않는 경우, 2 이상의 비조영 의료영상(t1, t2)을 정합하며, 정확도를 향상시키기 위해 표준 영상/모델(2621) 및/또는 의료영상 데이터베이스(2631)를 활용할 수 있다.
즉, 도 26의 실시예는 서로 다른 시점(t1, t2)에 촬영된 2 이상의 비조영 영상을 정합하여 촬영 순서에 따라 해부학적 개체 내에서의 병변 진행 정도를 판단하여 식별되게 표시하는 것이다.
구체적으로, 의료영상 표시장치(100)의 제어부(1010)는 당해 시점(t2)에 촬영된 비조영 의료영상(2601)과 과거 시점(t1)에 촬영된 비조영의료영상(2611)을 각각 획득하고, 이들을 정합한 융합 디스플레이를 생성하도록 한다.
융합 디스플레이 생성 과정은 당해 시점(t2)에 촬영된 비조영 의료영상과 과거 시점(t1)에 촬영된 비조영 의료영상의 영상 정합(2602), 정합에 따라 생성된 영상의 변환 및 전파(2603), 영역 교정(2604)의 과정을 포함한다.
여기서, 과거 시점(t1)의 비조영 의료영상에 대해 소정 해부학적 개체들 즉, 림프노드와 혈관 영역을 분할 및 교정하는데(2612), 여기서 표준 영상/모델(2621) 및/또는 의료영상 데이터베이스(2631)의 저장된 정보가 활용되게 된다.
의료영상 데이터베이스(2631)에는 다양한 정보가 저장되어 있으며, 제어부(1010)는 저장된 정보 중 대상체와 유사한 조건(대상체의 나이, 성별, 병변의 진행 정도 등)의 데이터(영상 포함)를 분류하고, 분류된 데이터를 이용한 트레이닝(training) 과정을 통해 데이터를 예측하는 기계학습을 진행할 수 있다(2632).
제어부(1010)는 표준 영상/모델에 저장된 데이터로부터 대상체와 유사한 조건(대상체의 나이, 성별, 병변의 진행 정도 등)에 해당하는 복수의 영상을 로드하고(2621), 로드된 영상들에 대한 영상정합(2622)과 변환 및 전파(2623)를 수행할 수 있다. 여기서, 영상정합(2622) 과정에 기계학습된 예측 데이터가 더 활용될 수 있다.
제어부(1010)는 기계학습(2632) 및/또는 표준 영상/모델로부터 변환 및 전파된 데이터를 이용하여, 과거 시점(t1)의 비조영 의료영상에 대해 추출된 림프노드/혈관 영역을 교정한다(2612).
그리고, 이를 두 의료영상의 좌표를 대응시키기 위한 변환 및 전파(2602)와 영역 교정(2603)에 이용할 수 있다. 영역 교정(2603)이 완료되면, 그 결과로 융합된 영상이 정합 영상으로서 디스플레이된다(2605).
영상의 정합, 변환 및 전파, 교정이 순차적으로 수행됨에 따라, 타 시점(t1)의 비조영 의료영상에 대하여 당해 시점(t2)의 비조영 의료영상에서의 림프노드의 변화를 비교하는 정량화가 이루어지고(2613), 그 과정에서 기계학습에 따른 데이터가 더 활용된다. 그리고, 정량화 결과가 디스플레이된다(2614).
한편, 상기와 같은 본 발명 실시예들에서 생성된 제3 의료영상 및/또는 제4 의료영상은 의료영상 데이터베이스 또는 표준 영상/모델에 저장되며, 저장된 영상들은 기계학습 또는 2 이상의 영상의 정합/변환/전파에 의해 다른 비조영 영상에서의 해부학적 개체의 식별 표시를 위한 영상 정합 등에 활용 가능할 것이다.
이하, 본 발명의 실시예들에 따른 의료영상 처리방법에 관해 도면을 참조하여 설명한다.
도 27은 본 발명 일실시예에 의한 의료영상 처리방법을 도시한 흐름도이다.
도 27에 도시된 바와 같이, 의료영상 표시장치(1000)의 디스플레이부(1020)에는 적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상이 표시될 수 있다(S2701). 여기서, 제1 의료영상은 비 조영 의료영상이 될 수 있다.
영상처리부(1030)는 제어부(1010)의 제어에 따라 단계 S2701에서 표시된 제1 의료영상의 참조영상인 제2 의료영상으로부터 적어도 하나의 해부학적 개체에 대응하는 참조영역정보를 추출한다(S2703). 여기서, 제2 의료영상은 제1 의료영상을 획득한 대상체를 타 시점에 촬상하여 획득된 조영 증강된 의료영상일 수 있다. 다른 실시예에서, 제2 의료영상은 대상체와 유사한 조건을 가지는 영상들에 기초하여 생성된 표준영상일 수 있다. 또한, 정보가 추출되는 해부학적 개체는 복수일 일 수 있으며, 혈관, 림프노드, 기관지 등을 포함한다. 단계 S2703의 참조영역정보는 제2 의료영상을 구성하는 픽셀들의 밝기 값을 이용하여 소정 해부학적 개체에 대응하여 추출될 수 있다.
제어부(1010)는 단계 S2703에서 참조영역정보에 기초하여 단계 S2701에서 표시된 제1 의료영상에서 적어도 해부학적 개체에 대응하는 영역을 검출하도록 영상처리부(1030)를 제어한다(S2705).
그리고, 제어부(1010)는 단계 S2705에서 검출된 영역이 해당 해부학적 개체가 아닌 영역과 구분하여 표시된 제3 의료영상을 표시한다(S2707). 여기서, 제3 의료영상은 제1 의료영상과 제2 의료영상을 정합하여 생성된 것으로, 단계 S2705에서 검출된 해부학적 개체에 대한 표시영역정보를 포함할 수 있다. 제어부(1010)는 표시영역정보에 기초하여 제3 의료영상에서 해부학적 개체의 영역이 다른 영역과 구분하여 표시되도록 디스플레이부(1020)를 제어하게 된다.
제어부(1010)는 단계 S2705에서 구분하여 표시된 해부학적 개체 내에서 병변 확장영역이 구분하여 표시된 제4 의료영상을 표시할 수 있다(S2709).
단계 S2707 및 S2709는 제1 의료영상과 제2 의료영상의 영상정합 과정에서 이루어질 수 있다. 또한, 단계 S2707에서 표시되는 제3 의료영상은 동형정합의 결과에 대응하며, 단계 S2709에서 표시되는 제4 의료영상은 이형정합의 결과에 대응된다.
단계 S2707 및 S2709의 의료영상 정합은 소정 변환모델 파라미터를 사용하여 수행되며, 제1 의료영상과 제2 의료영상의 유사도 측정함수의 결과값이 최대가 되거나, 또는 제1 의료영상과 제2 의료영상의 비용 함수의 결과값이 최소가 될 때까지 반복적으로 수행될 수 있다. 그리고, 제1 의료영상과 제2 의료영상의 좌표계를 매핑하고, 해부학적 개체의 고유 특성이 유지된 변환식 정보를 획득하는 동형정합 및 제1 의료영상과 제2 의료영상의 정보가 완전히 일치되는 변환식 정보를 획득하는 이형정합을 순차적으로 수행할 수 있다.
상기와 같은 본 발명 실시예에 따르면, 비 조영 영상을 기반으로 해부학적 개체 예를 들어, 림프노드 및 혈관 영역의 분할 표시 기능이 제공된다. 또한, 비 조영 영상 기반 림프노드 추적 검사 및 정량화 기능 (Volume, Density, Shape, Distribution 변화 등)이 제공된다.
본 발명의 여러 실시예들의 각각 특징들이 부분적으로 또는 전체적으로 서로 결합 또는 조합 가능하며, 당업자가 충분히 이해할 수 있듯이 기술적으로 다양한 연동 및 구동이 가능하며, 각 실시예들이 서로에 대하여 독립적으로 실시 가능할 수도 있고 연관 관계로 함께 실시 가능할 수도 있다.
이와 같이, 본 발명의 실시예에 의하면, 조영제를 적극적으로 사용하기 부담스러운 신장 기능 미약 환자들도, 림프 노드 추적 검사가 가능하다.
또한, 비조영 영상기반의 림프노드 질환 판정 관련 오진 가능성이 줄어들어, 진단 시스템의 개선 (Under/Over-estimation) 및 진단 정확도 향상을 도모할 수 있다.
또한, 본 실시예는 일반 검진용 비조영 영상에 적용 가능하여, 암 전이 여부 등 암 질환 조기 진단 등에 활용된다.
한편, 상기와 같은 본 발명의 다양한 실시예들은 컴퓨터가 판독 가능한 기록매체로 실시될 수 있다. 컴퓨터가 판독 가능한 기록매체는 전송매체 및 컴퓨터 시스템에 의해 판독 가능한 데이터를 저장하는 저장매체를 포함한다. 전송매체는 컴퓨터 시스템이 상호 결합된 유무선 네트워크를 통해 구현 가능하다.
본 발명의 다양한 실시예들은 하드웨어와 하드웨어 및 소프트웨어의 결합에 의해 구현될 수 있다. 하드웨어로서, 제어부(1010)는 소프트웨어인 컴퓨터프로그램이 저장되는 비휘발성메모리와, 비휘발성메모리에 저장된 컴퓨터프로그램이 로딩되는 RAM과, RAM에 로딩된 컴퓨터프로그램을 실행하는 CPU를 포함할 수 있다. 비휘발성메모리는 하드디스크드라이브, 플래쉬메모리, ROM, CD-ROMs, 자기테이프(magnetic tapes), 플로피 디스크, 광기억 장치(optical storage), 인터넷을 이용한 데이터 전송장치 등을 포함하며, 이에 한정되지 않는다. 비휘발성메모리는 본 발명의 컴퓨터가 읽을 수 있는 프로그램이 기록된 기록매체(computer-readable recording medium)의 일례이다.
컴퓨터프로그램은 CPU가 읽고 실행할 수 있는 코드로서, 도 18에 도시된 단계 S1801 내지 S1809, 도 23에 도시된 단계 S2301 내지 단계 S2309과 같은 제어부(1010)의 동작을 수행하도록 하는 코드를 포함한다.
컴퓨터프로그램은 의료영상 표시장치(1000)에 구비된 운영체제(operating system) 또는 어플리케이션을 포함하는 소프트웨어 및/또는 외부장치와 인터페이스하는 소프트웨어에 포함되어 구현될 수 있다.
이상, 바람직한 실시예를 통하여 본 발명에 관하여 상세히 설명하였으나, 본 발명은 이에 한정되는 것은 아니며 특허청구범위 내에서 다양하게 실시될 수 있다.
1000 : 의료영상 표시장치 1010 : 제어부
1020 : 디스플레이부 1030 : 영상처리부
1031: 제1 개체 추출부 1032 : 제2 개체 추출부
1033 : 좌표 변환부 1034 : 동형정합부
1035 : 이형정합부 1040: 사용자 입력부
1050 : 저장부 1060 : 통신부

Claims (48)

  1. 의료영상 표시장치에 있어서,
    적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 디스플레이부와;
    상기 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 상기 해부학적 개체에 대응하는 참조영역정보를 추출하고, 상기 추출된 참조영역정보에 기초하여 상기 제1 의료영상에서 상기 해부학적 개체에 대응하는 영역을 검출하고, 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 상기 디스플레이부를 제어하는 적어도 하나의 프로세서를 포함하는 것을 특징으로 하는 의료영상 표시장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 제1 의료영상과 상기 제2 의료영상을 정합하여 상기 제1 의료영상에서 상기 검출된 해부학적 개체에 대한 표시영역정보를 포함하는 제3 의료영상을 생성하고,
    상기 표시영역정보에 기초하여 상기 생성된 제3 의료영상에서 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 디스플레이부를 제어하는 것을 특징으로 하는 의료영상 표시장치.
  3. 제1항에 있어서,
    상기 해부학적 개체는 복수이며,
    상기 디스플레이부는, 상기 복수의 해부학적 개체의 영역들이 각각 구분하여 표시되도록 하는 것을 특징으로 하는 의료영상 표시장치.
  4. 제3항에 있어서,
    상기 복수의 해부학적 개체는, 혈관 및 림프노드 중 적어도 하나를 포함하는 것을 특징으로 하는 의료영상 표시장치.
  5. 제1항에 있어서,
    상기 제1 의료영상은 비 조영 의료영상인 것을 특징으로 하는 의료영상 표시장치.
  6. 제1항에 있어서,
    상기 제2 의료영상은 조영 증강된 의료영상인 것을 특징으로 하는 의료영상 표시장치.
  7. 제6항에 있어서,
    상기 제2 의료영상은, 상기 제1 의료영상을 획득한 상기 대상체를 타 시점에 촬상하여 획득된 의료영상인 것을 특징으로 하는 의료영상 표시장치.
  8. 제1항에 있어서,
    상기 디스플레이부에서, 색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되는 것을 특징으로 하는 의료영상 표시장치.
  9. 제1항에 있어서,
    상기 해부학적 개체의 영역의 구분 표시는 사용자 선택에 의해 활성화 또는 비활성화 가능한 것을 특징으로 하는 의료영상 표시장치.
  10. 제1항에 있어서,
    사용자 입력을 수신하는 사용자 입력부를 더 포함하며,
    상기 프로세서는, 상기 사용자 입력에 응답하여 상기 해부학적 개체의 구분 표시의 레벨을 조정하도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 의료영상 표시장치.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 프로세서는, 상기 해부학적 개체의 영역에서 병변 확장 영역을 더 검출하고, 상기 해부학적 개체의 영역 내에서 상기 검출된 병변 확장 영역이 식별 가능하게 표시되도록 상기 디스플레이부를 제어하는 것을 특징으로 하는 의료영상 표시장치.
  12. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 프로세서는, 상기 제2 의료영상의 픽셀들의 밝기 값을 이용하여 상기 해부학적 개체에 대응하는 참조영역정보를 추출하는 것을 특징으로 하는 의료영상 표시장치.
  13. 제2항 내지 제10항 중 어느 한 항에 있어서,
    상기 프로세서는, 소정 변환모델 파라미터를 사용하여 상기 제1 의료영상과 상기 제2 의료영상의 유사도 측정 함수의 결과값이 최대가 되도록 영상 정합을 수행하는 것을 특징으로 하는 의료영상 표시장치.
  14. 제2항 내지 제10항 중 어느 한 항에 있어서,
    상기 프로세서는, 소정 변환모델 파라미터를 사용하여 상기 제1 의료영상과 상기 제2 의료영상의 비용 함수의 결과값이 최소가 되도록 영상 정합을 수행하는 것을 특징으로 하는 의료영상 표시장치.
  15. 제2항 내지 제10항 중 어느 한 항에 있어서,
    상기 프로세서는,
    상기 제1 의료영상과 상기 제2 의료영상의 좌표계를 매핑하고,
    상기 좌표계가 매핑된 상기 제1 의료영상 및 상기 제2 의료영상에 대해, 상기 제2 의료영상의 영상 특성을 유지한 상태로 상기 제1의료영상에 매칭시키는 동형정합을 수행하는 것을 특징으로 하는 의료영상 표시장치.
  16. 제15항에 있어서,
    상기 프로세서는,
    상기 동형정합이 수행된 상기 제1 의료영상 및 상기 제2 의료영상에 대해, 상기 제2 의료영상의 영상 특성을 변형시켜 상기 제1의료영상에 완전히 매칭시키는 이형정합을 더 수행하는 것을 특징으로 하는 의료영상 표시장치.
  17. 의료영상 처리방법에 있어서,
    적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 단계와;
    상기 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 상기 해부학적 개체에 대응하는 참조영역정보를 추출하는 단계와;
    상기 추출된 참조영역정보에 기초하여 상기 제1 의료영상에서 상기 해부학적 개체에 대응하는 영역을 검출하고, 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 단계를 포함하는 것을 특징으로 하는 의료영상 처리방법.
  18. 제17항에 있어서,
    상기 제1 의료영상과 상기 제2 의료영상을 정합하여 상기 제1 의료영상에서 상기 검출된 해부학적 개체에 대한 표시영역정보를 포함하는 제3 의료영상을 생성하는 단계를 더 포함하며,
    상기 구분하여 표시되도록 하는 단계는, 상기 표시영역정보에 기초하여 상기 생성된 제3 의료영상에서 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 것을 특징으로 하는 의료영상 처리방법.
  19. 제17항에 있어서,
    상기 해부학적 개체는 복수이며,
    상기 구분하여 표시되도록 하는 단계는, 상기 복수의 해부학적 개체의 영역들이 각각 구분하여 표시되도록 하는 것을 특징으로 하는 의료영상 처리방법.
  20. 제19항에 있어서,
    상기 복수의 해부학적 개체는, 혈관 및 림프노드 중 적어도 하나를 포함하는 것을 특징으로 하는 의료영상 처리방법.
  21. 제17항에 있어서,
    상기 제1 의료영상은 비 조영 의료영상인 것을 특징으로 하는 의료영상 처리방법.
  22. 제18항에 있어서,
    상기 제2 의료영상은 조영 증강된 의료영상인 것을 특징으로 하는 의료영상 처리방법.
  23. 제22항에 있어서,
    상기 제2 의료영상은, 상기 제1 의료영상을 획득한 상기 대상체를 타 시점에 촬상하여 획득된 의료영상인 것을 특징으로 하는 의료영상 처리방법.
  24. 제17항에 있어서,
    상기 구분하여 표시되도록 하는 단계는,
    색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해, 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 것을 특징으로 하는 의료영상 처리방법.
  25. 제17항에 있어서,
    상기 해부학적 개체의 영역의 구분 표시를 활성화 또는 비활성화하는 사용자 선택을 수신하는 단계를 더 포함하는 것을 특징으로 하는 의료영상 처리방법.
  26. 제17항에 있어서,
    상기 해부학적 개체의 구분 표시의 레벨을 조정하는 사용자 입력을 수신하는 단계를 더 포함하는 것을 특징으로 하는 의료영상 처리방법.
  27. 제17항 내지 제26항 중 어느 한 항에 있어서,
    상기 구분하여 표시된 해부학적 개체의 영역에서 병변 확장 영역을 검출하고, 상기 해부학적 개체의 영역 내에서 상기 검출된 병변 확장 영역이 식별 가능하게 표시되도록 하는 단계를 더 포함하는 것을 특징으로 하는 의료영상 처리방법.
  28. 제17항 내지 제26항 중 어느 한 항에 있어서,
    상기 참조영역정보를 추출하는 단계는, 상기 제2 의료영상의 픽셀들의 밝기 값을 이용하여 상기 해부학적 개체에 대응하는 참조영역정보를 추출하는 것을 특징으로 하는 의료영상 처리방법.
  29. 제18항 내지 제28항 중 어느 한 항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    소정 변환모델 파라미터를 사용하여 상기 제1 의료영상과 상기 제2 의료영상의 유사도 측정 함수의 결과값이 최대가 되도록 영상 정합을 수행하는 것을 특징으로 하는 의료영상 처리방법.
  30. 제18항 내지 제28항 중 어느 한 항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    소정 변환모델 파라미터를 사용하여 상기 제1 의료영상과 상기 제2 의료영상의 비용 함수의 결과값이 최소가 되도록 영상 정합을 수행하는 것을 특징으로 하는 의료영상 처리방법.
  31. 제18항 내지 제28항 중 어느 한 항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    상기 제1 의료영상과 상기 제2 의료영상의 좌표계를 매핑하는 단계와;
    상기 좌표계가 매핑된 상기 제1 의료영상 및 상기 제2 의료영상에 대해, 상기 제2 의료영상의 영상 특성을 유지한 상태로 상기 제1의료영상에 매칭시키는 동형정합을 수행하는 단계를 포함하는 것을 특징으로 하는 의료영상 처리방법.
  32. 제31항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    상기 동형정합이 수행된 상기 제1 의료영상 및 상기 제2 의료영상에 대해, 상기 제2 의료영상의 영상 특성을 변형시켜 상기 제1의료영상에 완전히 매칭시키는 이형정합을 수행하는 단계를 더 포함하는 것을 특징으로 하는 의료영상 처리방법.
  33. 컴퓨터가 읽을 수 있는 프로그램으로서 의료영상 처리방법을 수행하는 프로그램이 기록된 기록매체에 있어서, 상기 의료영상 처리방법은,
    적어도 하나의 해부학적 개체를 포함하는 대상체를 촬상한 제1 의료영상을 표시하는 단계와;
    상기 제1 의료영상의 참조영상인 적어도 하나의 제2 의료영상으로부터 상기 해부학적 개체에 대응하는 참조영역정보를 추출하는 단계와;
    상기 추출된 참조영역정보에 기초하여 상기 제1 의료영상에서 상기 해부학적 개체에 대응하는 영역을 검출하고, 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 단계를 포함하는 것을 특징으로 하는 기록매체.
  34. 제33항에 있어서,
    상기 제1 의료영상과 상기 제2 의료영상을 정합하여 상기 제1 의료영상에서 상기 검출된 해부학적 개체에 대한 표시영역정보를 포함하는 제3 의료영상을 생성하는 단계를 더 포함하며,
    상기 구분하여 표시되도록 하는 단계는, 상기 표시영역정보에 기초하여 상기 생성된 제3 의료영상에서 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 것을 특징으로 하는 기록매체.
  35. 제33항에 있어서,
    상기 해부학적 개체는 복수이며,
    상기 구분하여 표시되도록 하는 단계는, 상기 복수의 해부학적 개체의 영역들이 각각 구분하여 표시되도록 하는 것을 특징으로 하는 기록매체.
  36. 제35항에 있어서,
    상기 복수의 해부학적 개체는, 혈관 및 림프노드 중 적어도 하나를 포함하는 것을 특징으로 하는 기록매체.
  37. 제35항에 있어서,
    상기 제1 의료영상은 비 조영 의료영상인 것을 특징으로 하는 기록매체.
  38. 제35항에 있어서,
    상기 제2 의료영상은 조영 증강된 의료영상인 것을 특징으로 하는 기록매체.
  39. 제38항에 있어서,
    상기 제2 의료영상은, 상기 제1 의료영상을 획득한 상기 대상체를 타 시점에 촬상하여 획득된 의료영상인 것을 특징으로 하는 기록매체.
  40. 제33항에 있어서,
    상기 구분하여 표시되도록 하는 단계는,
    색상, 패턴, 포인터, 하이라이트 및 애니메이션 효과 중 적어도 하나에 의해, 상기 검출된 해부학적 개체의 영역이 상기 해부학적 개체가 아닌 영역과 구분하여 표시되도록 하는 것을 특징으로 하는 기록매체.
  41. 제33항에 있어서,
    상기 해부학적 개체의 영역의 구분 표시를 활성화 또는 비활성화하는 사용자 선택을 수신하는 단계를 더 포함하는 것을 특징으로 하는 기록매체.
  42. 제33항에 있어서,
    상기 해부학적 개체의 구분 표시의 레벨을 조정하는 사용자 입력을 수신하는 단계를 더 포함하는 것을 특징으로 하는 기록매체.
  43. 제33항 내지 제42항 중 어느 한 항에 있어서,
    상기 구분하여 표시된 해부학적 개체의 영역에서 병변 확장 영역을 검출하고, 상기 해부학적 개체의 영역 내에서 상기 검출된 병변 확장 영역이 식별 가능하게 표시되도록 하는 단계를 더 포함하는 것을 특징으로 하는 기록매체.
  44. 제33항 내지 제42항 중 어느 한 항에 있어서,
    상기 참조영역정보를 추출하는 단계는, 상기 제2 의료영상의 픽셀들의 밝기 값을 이용하여 상기 해부학적 개체에 대응하는 참조영역정보를 추출하는 것을 특징으로 하는 기록매체.
  45. 제34항 내지 제42항 중 어느 한 항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    소정 변환모델 파라미터를 사용하여 상기 제1 의료영상과 상기 제2 의료영상의 유사도 측정 함수의 결과값이 최대가 되도록 영상 정합을 수행하는 것을 특징으로 하는 기록매체.
  46. 제34항 내지 제42항 중 어느 한 항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    소정 변환모델 파라미터를 사용하여 상기 제1 의료영상과 상기 제2 의료영상의 비용 함수의 결과값이 최소가 되도록 영상 정합을 수행하는 것을 특징으로 하는 기록매체.
  47. 제34항 내지 제42항 중 어느 한 항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    상기 제1 의료영상과 상기 제2 의료영상의 좌표계를 매핑하는 단계와;
    상기 좌표계가 매핑된 상기 제1 의료영상 및 상기 제2 의료영상에 대해, 상기 제2 의료영상의 영상 특성을 유지한 상태로 상기 제1의료영상에 매칭시키는 동형정합을 수행하는 단계를 포함하는 것을 특징으로 하는 기록매체.
  48. 제47항에 있어서,
    상기 제3 의료영상을 생성하는 단계는,
    상기 동형정합이 수행된 상기 제1 의료영상 및 상기 제2 의료영상에 대해, 상기 제2 의료영상의 영상 특성을 변형시켜 상기 제1의료영상에 완전히 매칭시키는 이형정합을 수행하는 단계를 더 포함하는 것을 특징으로 하는 기록매체.
KR1020160044817A 2015-08-17 2016-04-12 의료영상 표시장치 및 의료영상 처리방법 KR102522539B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2016/006087 WO2017030276A1 (ko) 2015-08-17 2016-06-09 의료영상 표시장치 및 의료영상 처리방법
EP16837218.3A EP3338625B1 (en) 2015-08-17 2016-06-09 Medical image display device and medical image processing method
US15/753,051 US10682111B2 (en) 2015-08-17 2016-06-09 Medical image display device and medical image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150115661 2015-08-17
KR1020150115661 2015-08-17

Publications (2)

Publication Number Publication Date
KR20170021189A true KR20170021189A (ko) 2017-02-27
KR102522539B1 KR102522539B1 (ko) 2023-04-18

Family

ID=58315900

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160044817A KR102522539B1 (ko) 2015-08-17 2016-04-12 의료영상 표시장치 및 의료영상 처리방법

Country Status (3)

Country Link
US (1) US10682111B2 (ko)
EP (1) EP3338625B1 (ko)
KR (1) KR102522539B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537774A (zh) * 2017-03-01 2018-09-14 西门子医疗有限公司 用于检查医学图像的方法以及用于调整检查协议的方法
KR20190127247A (ko) 2018-05-04 2019-11-13 재단법인 아산사회복지재단 초기 동적 영상데이터 기반 진단용 영상 생성방법 및 프로그램
KR20200056105A (ko) * 2018-11-14 2020-05-22 울산대학교 산학협력단 관상동맥석회화점수 산정 방법 및 장치
WO2020141847A1 (ko) * 2019-01-02 2020-07-09 울산대학교 산학협력단 피브린과침착증 진단 장치 및 방법
WO2020206423A1 (en) * 2019-04-04 2020-10-08 Centerline Biomedical, In C. Registration of spatial tracking system with augmented reality display
CN112085730A (zh) * 2020-09-18 2020-12-15 上海联影医疗科技股份有限公司 感兴趣区域成分分析方法、装置、电子设备和介质

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016203812A1 (de) * 2016-03-09 2017-09-14 Siemens Healthcare Gmbh Kombinierte Ultraschall-Computertomographie-Bildgebung
EP3554371B1 (en) 2016-12-15 2021-07-21 Koninklijke Philips N.V. Visualizing vascular structures
US11317886B2 (en) * 2017-01-25 2022-05-03 Canon Medical Systems Corporation X-ray CT apparatus and imaging management apparatus
KR102581945B1 (ko) * 2017-02-07 2023-09-25 삼성전자주식회사 스킨 정보 제공 방법 및 이를 지원하는 전자 장치
WO2020202680A1 (ja) * 2019-03-29 2020-10-08 キヤノン株式会社 情報処理装置及び情報処理方法
CN110458837B (zh) * 2019-08-19 2023-08-22 上海联影医疗科技股份有限公司 一种图像后处理方法、装置、电子设备及存储介质
DE102019217576B4 (de) * 2019-11-14 2021-10-14 Siemens Healthcare Gmbh Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
US11861846B2 (en) * 2019-12-20 2024-01-02 Brainlab Ag Correcting segmentation of medical images using a statistical analysis of historic corrections
US11564645B2 (en) * 2020-02-25 2023-01-31 GE Precision Healthcare LLC Methods and systems for digital mammography imaging
CN111951309B (zh) * 2020-06-30 2024-01-30 杭州依图医疗技术有限公司 一种淋巴结配准方法及装置、计算机设备及存储介质
US12039721B2 (en) * 2021-06-29 2024-07-16 Siemens Healthineers International Ag Classification of organ of interest shapes for autosegmentation quality assurance
CN113380381A (zh) * 2021-07-13 2021-09-10 深圳市中科微光医疗器械技术有限公司 获取医学诊断信息的方法、装置、电子设备及存储介质
EP4236214A1 (en) * 2022-02-23 2023-08-30 Nxp B.V. Controller area network transceiver and method for the transceiver

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070244393A1 (en) * 2004-06-03 2007-10-18 Mitsuhiro Oshiki Image Diagnosing Support Method and Image Diagnosing Support Apparatus
US20080025638A1 (en) * 2006-07-31 2008-01-31 Eastman Kodak Company Image fusion for radiation therapy
US20130116538A1 (en) * 2011-11-02 2013-05-09 Seno Medical Instruments, Inc. Optoacoustic imaging systems and methods with enhanced safety
US20140029812A1 (en) * 2012-07-30 2014-01-30 General Electric Company Methods and systems for determining a transformation function to automatically register different modality medical images

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2559930C2 (ru) * 2010-02-02 2015-08-20 Конинклейке Филипс Электроникс Н.В. Формирование функциональных изображений
US8983179B1 (en) 2010-11-10 2015-03-17 Google Inc. System and method for performing supervised object segmentation on images
CN104584074B (zh) * 2012-08-30 2020-09-22 皇家飞利浦有限公司 在3d常规以及对比增强的超声图像中的耦合的分割
KR102154733B1 (ko) 2013-01-16 2020-09-11 삼성전자주식회사 의료 영상을 이용하여 대상체에 악성 종양이 존재하는지 여부를 예측하는 장치 및 방법
KR102094502B1 (ko) 2013-02-21 2020-03-30 삼성전자주식회사 의료 영상들의 정합 방법 및 장치
CN105074778B (zh) 2013-03-28 2018-10-12 皇家飞利浦有限公司 交互式随访可视化
KR101479577B1 (ko) 2013-04-02 2015-01-06 재단법인 아산사회복지재단 심근 및 심혈관 정보의 통합 분석 방법
KR102205898B1 (ko) * 2013-09-04 2021-01-21 삼성전자주식회사 의료영상들을 정합하는 방법 및 장치
WO2015155808A1 (ja) * 2014-04-09 2015-10-15 パナソニック株式会社 情報端末の制御方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070244393A1 (en) * 2004-06-03 2007-10-18 Mitsuhiro Oshiki Image Diagnosing Support Method and Image Diagnosing Support Apparatus
US20080025638A1 (en) * 2006-07-31 2008-01-31 Eastman Kodak Company Image fusion for radiation therapy
US20130116538A1 (en) * 2011-11-02 2013-05-09 Seno Medical Instruments, Inc. Optoacoustic imaging systems and methods with enhanced safety
US20140029812A1 (en) * 2012-07-30 2014-01-30 General Electric Company Methods and systems for determining a transformation function to automatically register different modality medical images

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108537774A (zh) * 2017-03-01 2018-09-14 西门子医疗有限公司 用于检查医学图像的方法以及用于调整检查协议的方法
CN108537774B (zh) * 2017-03-01 2022-10-14 西门子医疗有限公司 用于检查医学图像的方法以及用于调整检查协议的方法
KR20190127247A (ko) 2018-05-04 2019-11-13 재단법인 아산사회복지재단 초기 동적 영상데이터 기반 진단용 영상 생성방법 및 프로그램
KR20200056105A (ko) * 2018-11-14 2020-05-22 울산대학교 산학협력단 관상동맥석회화점수 산정 방법 및 장치
US11877880B2 (en) 2018-11-14 2024-01-23 The Asan Foundation Method and apparatus for calculating coronary artery calcium score
WO2020141847A1 (ko) * 2019-01-02 2020-07-09 울산대학교 산학협력단 피브린과침착증 진단 장치 및 방법
WO2020206423A1 (en) * 2019-04-04 2020-10-08 Centerline Biomedical, In C. Registration of spatial tracking system with augmented reality display
US11538574B2 (en) 2019-04-04 2022-12-27 Centerline Biomedical, Inc. Registration of spatial tracking system with augmented reality display
CN112085730A (zh) * 2020-09-18 2020-12-15 上海联影医疗科技股份有限公司 感兴趣区域成分分析方法、装置、电子设备和介质

Also Published As

Publication number Publication date
EP3338625A1 (en) 2018-06-27
KR102522539B1 (ko) 2023-04-18
US20180235563A1 (en) 2018-08-23
EP3338625A4 (en) 2018-08-01
EP3338625B1 (en) 2021-12-08
US10682111B2 (en) 2020-06-16

Similar Documents

Publication Publication Date Title
KR102522539B1 (ko) 의료영상 표시장치 및 의료영상 처리방법
US11625151B2 (en) Medical image providing apparatus and medical image processing method of the same
US10413253B2 (en) Method and apparatus for processing medical image
KR101713859B1 (ko) 자기 공명 영상 처리 장치 및 그에 따른 자기 공명 영상 처리 방법
KR101676789B1 (ko) 자기 공명 영상 장치 및 자기 공명 영상을 처리하는 방법
KR102510760B1 (ko) 영상처리장치, 영상처리방법 및 이를 기록한 기록매체
KR102049459B1 (ko) 의료 영상 장치 및 그에 따른 사용자 인터페이스 화면의 디스플레이 방법
US9508154B2 (en) Medical imaging apparatus and method of operating the same
EP3193280B1 (en) Medical imaging device and method of operating the same
EP3220826B1 (en) Method and apparatus for processing medical image
KR20160050326A (ko) 영상 처리 장치, 영상 처리 방법 및 영상 처리부가 마련된 초음파 영상 장치
KR101665032B1 (ko) 자기 공명 영상 장치 및 자기 공명 영상의 처리 방법
KR101681313B1 (ko) 의료 영상 제공 장치 및 그에 따른 의료 영상 제공 방법
KR20160130182A (ko) 의료 영상 장치 및 그에 따른 사용자 인터페이스 화면의 디스플레이 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant