KR102070427B1 - 종양의 위치를 추적하는 방법 및 장치 - Google Patents

종양의 위치를 추적하는 방법 및 장치 Download PDF

Info

Publication number
KR102070427B1
KR102070427B1 KR1020120086936A KR20120086936A KR102070427B1 KR 102070427 B1 KR102070427 B1 KR 102070427B1 KR 1020120086936 A KR1020120086936 A KR 1020120086936A KR 20120086936 A KR20120086936 A KR 20120086936A KR 102070427 B1 KR102070427 B1 KR 102070427B1
Authority
KR
South Korea
Prior art keywords
target organ
organ model
tumor
organ
model
Prior art date
Application number
KR1020120086936A
Other languages
English (en)
Other versions
KR20140020485A (ko
Inventor
김정배
황영규
김도균
방원철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120086936A priority Critical patent/KR102070427B1/ko
Priority to US13/930,042 priority patent/US10368809B2/en
Publication of KR20140020485A publication Critical patent/KR20140020485A/ko
Application granted granted Critical
Publication of KR102070427B1 publication Critical patent/KR102070427B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7271Specific aspects of physiological measurement analysis
    • A61B5/7275Determining trends in physiological measurement data; Predicting development of a medical condition based on physiological measurements, e.g. determining a risk factor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61NELECTROTHERAPY; MAGNETOTHERAPY; RADIATION THERAPY; ULTRASOUND THERAPY
    • A61N7/00Ultrasound therapy
    • A61N7/02Localised ultrasound hyperthermia
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • A61B5/0035Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room adapted for acquisition of images from more than one imaging mode, e.g. combining MRI and optical tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Vascular Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

신체 활동에 의해 변하는 종양의 위치를 추적하는 방법은 상기 종양이 위치한 대상 장기 및 상기 대상 장기의 주변 장기의 해부학적 정보를 포함하는 의료 영상을 이용하여 대상 장기 모델 및 주변 장기 모델을 생성하는 단계; 상기 대상 장기 및 상기 주변 장기를 포함하는 실시간 영상을 상기 주변 장기 모델과 정합하는 단계; 상기 정합된 주변 장기 모델을 기초로 상기 대상 장기 모델을 정합하는 단계; 및 상기 정합된 대상 장기 모델을 기초로 상기 종양의 위치를 추적하는 단계를 포함한다.

Description

종양의 위치를 추적하는 방법 및 장치{Method and Apparatus for tracking the position of tumor}
종양의 위치를 추적하는 방법 및 장치에 관한 것이다.
의학의 발달과 더불어 종양에 대한 국소 치료는 개복 수술과 같은 침습적 수술 방법으로부터 최소 침습적 수술(minimal-invasive surgery)까지 발전되어 왔다. 그리고 현재에는 비침습적 수술(non-invasive surgery)도 개발되어 감마 나이프(gamma knife), 사이버 나이프(cyber knife), HIFU 나이프(HIFU knife) 등이 출현하게 되었다. 특히, 이 중에서 최근 상용화된 HIFU 나이프는 초음파를 이용함으로써 인체에 무해하고 환경친화적 치료법으로써 널리 사용되고 있다.
HIFU 치료는 고강도의 집속 초음파(high-intensity focused ultrasound, HIFU)를 치료하고자 하는 종양 부위(초점)에 조사하여 종양 조직의 국소적 파괴(focal destruction) 또는 괴사(necrosis)를 야기시켜 종양을 제거 및 치료하는 수술법이다. 이때, 종양 부위에 정확히 HIFU를 조사하기 위해서는 종양 부위의 위치를 정확하게 나타내는 진단용 의료 영상이 요구된다. 따라서, HIFU 치료에는 진단용 초음파, CT, MRI 등과 같은 영상 진단 기술로부터 획득된 의료 영상이 이용된다.
실시간으로 변경되는 종양의 위치를 추적하기 위한 방법 및 장치를 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
본 발명의 일 측면에 따른 종양의 위치를 추적하는 방법은 신체 활동에 의해 변하는 종양의 위치를 추적하는 방법에 있어서, 상기 종양이 위치한 대상 장기 및 상기 대상 장기의 주변 장기의 해부학적 정보를 포함하는 의료 영상을 이용하여 대상 장기 모델 및 주변 장기 모델을 생성하는 단계; 상기 대상 장기 및 상기 주변 장기를 포함하는 실시간 영상을 상기 주변 장기 모델과 정합하는 단계; 상기 정합된 주변 장기 모델을 기초로 상기 대상 장기 모델을 정합하는 단계; 및 상기 정합된 대상 장기 모델을 기초로 상기 종양의 위치를 추적하는 단계를 포함한다.
본 발명의 또 다른 측면에 따른 종양 추적 장치는 신체 활동에 의해 변하는 종양의 위치를 추적하는 장치에 있어서, 상기 종양이 위치한 대상 장기 및 상기 대상 장기의 주변 장기의 해부학적 정보를 포함하는 의료 영상을 이용하여 대상 장기 모델 및 주변 장기 모델을 생성하는 장기 모델 생성부; 상기 대상 장기 및 상기 주변 장기를 포함하는 실시간 영상을 상기 주변 장기 모델과 정합하는 주변 장기 모델 정합부; 상기 정합된 주변 장기 모델을 기초로 상기 대상 장기 모델을 정합하는 대상 장기 모델 정합부; 및 상기 정합된 대상 장기 모델을 기초로 상기 종양의 위치를 추적하는 종양 추정부를 포함한다.
주변 장기의 정보를 이용하여, 대상 장기의 위치와 형상을 추정하여 대상 장기에 위치한 종양의 위치를 추적할 수 있다.
도 1은 종양 치료 시스템의 일 예를 설명하기 위한 구성도이다.
도 2는 도 1에 도시된 종양 추적 장치(10)의 일 예를 설명하기 위한 도면이다.
도 3은 도 1의 종양 추적 장치(10)가 종양의 위치를 추적하는 각 단계를 설명하기 위한 도면이다.
도 4는 도 3의 310단계를 설명하기 위한 도면이다.
도 5는 도 3의 320단계를 설명하기 위한 도면이다.
도 6은 도 3의 330단계를 설명하기 위한 도면이다.
도 7은 종양을 추적하는 방법의 일 예를 나타내는 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예들을 상세히 설명한다.
도 1은 종양 치료 시스템의 일 예를 설명하기 위한 구성도이다. 도 1을 참조하면, 종양 치료 시스템은 종양 치료 장치(100) 및 의료 영상 생성 장치(50)를 포함하며, 종양 치료 장치(100)는 영상 검출 장치(30), 치료 장치(40) 및 종양 추적 장치(10)를 포함한다.
종양 치료 장치(100)는 대상체 내의 종양의 위치를 추적하여 종양을 제거하는 장치이다. 따라서, 대상체의 활동에 의해 종양의 위치가 변하더라도, 종양 치료 장치(100)는 위치가 변경된 종양을 계속하여 추적함으로써, 종양을 제거할 수 있다.
종양 치료 장치(100)는 장기들의 모델 및 실시간으로 입력되는 영상을 이용하여 대상체의 활동에 의해 변하는 장기의 영상을 획득한다. 종양 치료 장치(100)는 획득된 장기의 영상을 기초로 장기 내의 종양의 위치를 실시간으로 추적할 수 있다.
종양 치료 장치(100)는 대상 장기를 나타내는 대상 장기 모델과 주변 장기를 나타내는 주변 장기 모델을 이용하여 종양의 위치를 추적하여, 종양 치료 장치(100)로 입력되는 실시간 영상에서 대상 장기 내의 종양을 식별할 수 없더라도 종양의 위치를 추적할 수 있다. 즉, 종양 치료 장치(100)는 주변 장기 모델을 우선적으로 실시간 영상과 정합하여, 주변 장기들의 위치와 형상을 결정한다. 그리고 종양 치료 장치(100)는 결정된 주변 장기들의 위치와 형상에 따라 대상 장기의 위치와 형상을 결정한다. 종양 치료 장치(100)는 결정된 대상 장기의 위치와 형상에 따라 대상 장기 내의 종양의 위치를 추적한다.
영상 검출 장치(30)는 대상체의 영상을 실시간으로 검출하는 장치이다. 예를 들어, 영상 검출 장치(30)는 초음파를 대상체에 송신하고 대상체로부터 반사되는 초음파(반사파)를 수신하여 대상체의 영상을 실시간으로 검출한다. 영상 검출 장치(30)는 대상체의 영상을 실시간으로 검출하기 때문에, 대상체의 움직임에 따라 변하는 영상을 획득할 수 있다. 예를 들어, 신체의 경우, 호흡에 의해 장기가 이동하거나 변형된다. 영상 검출 장치(30)는 실시간으로 장기의 이동 또는 변형을 나타내는 실시간 영상을 종양 추적 장치(10)로 출력한다.
영상 검출 장치(30)는 장착된 프로브(probe)로부터 발생된 소스 신호(source signal)가 의사 등과 같은 의료 전문가가 진단하고자 하는 대상체의 특정 부위에 전달됨으로써 발생되는 반응을 이용하여 영상 데이터를 생성한다. 여기에서 소스 신호는 초음파, X선 등 여러 가지 신호가 될 수 있다. 영상 검출 장치(30)가 초음파를 이용하여 환자 대상체로부터 3차원 영상을 검출하는 초음파 진단기(ultrasonography machine)인 경우를 예를 들어 설명하면 다음과 같다.
초음파 진단기의 프로브는 일반적으로 압전 변환기(piezoelectric transducer)로 제조된다. 영상 검출 장치(30)의 프로브로부터 2 ~ 18 MHz 범위의 초음파가 환자 대상체 내부의 특정 부위에 전달되면, 이 초음파는 여러 다른 조직들(tissues) 사이의 계층들로부터 부분적으로 반사된다. 특히, 초음파는 대상체 내부에서의 밀도 변화가 있는 곳, 예를 들어, 혈장(blood plasma) 내의 혈구들(blood cells), 장기들(organs) 내의 작은 조직들(structures) 등에서 반사된다. 이와 같이 반사된 초음파들은 프로브의 압전 변환기를 진동시키고, 압전 변환기는 이 진동들에 따른 전기적 펄스들(electrical pulses)을 출력한다. 이와 같은 전기적 펄스들이 영상으로 변환된다.
영상 검출 장치(30)는 2차원 영상을 출력할 수도 있지만, 3차원 영상도 출력할 수 있다. 영상 검출 장치(30)가 3차원 영상을 출력하는 방법은 다음과 같다. 대상체 위에서 프로브의 위치(location)와 방향(orientation)을 변화시키면서, 환자 대상체의 특정 부위에 대한 다수의 단면 영상들을 검출한다. 이어서, 영상 검출 장치(30)는 이와 같은 단면 영상들을 축적하여 환자 대상체의 특정 부위를 3차원으로 나타내는 3차원 볼륨(volume)의 영상 데이터를 생성한다. 이와 같이 단면 영상들을 축적하여 3차원 볼륨의 영상 데이터를 생성하는 방식을 MPR(Multiplanar reconstruction) 방식이라고 한다. 그런데 이와 같이 영상 검출 장치(30)에 의해 얻을 수 있는 영상, 예를 들면 초음파 영상들은 실시간으로 획득할 수 있으나, 초음파 영상들로부터 장기의 내부 구조나 종양을 명확하게 식별해내기가 어렵다.
의료 영상 생성 장치(50)는 대상체의 상세한 영상을 생성하는 장치이다. 예를 들어, 의료 영상 생성 장치(50)는 CT(computed tomography) 또는 MR(magnetic resonance) 영상을 생성하는 장치일 수 있다. 즉, 의료 영상 생성 장치(50)는 영상 검출 장치(30)에 비하여 장기의 윤곽, 내부 구조 또는 종양 등을 명확하게 식별할 수 있는 영상을 생성한다. CT(computed tomography)영상 이나 MR(magnetic resonance) 영상은 장기의 위치나 종양의 위치가 명확하게 구별이 되는 장점이 있다. 반면에, CT 영상이나 MR 영상은 환자가 호흡을 하거나 움직임으로 인하여 장기가 변형되거나 위치가 변하는 것을 나타내는 실시간 영상을 얻을 수 없는 단점이 있다. CT 영상의 경우 방사선을 이용한 촬영방법이기 때문에 환자가 장시간 방사능에 노출될 우려가 있기 때문에 짧은 시간의 촬영이 권장되며, MR 영상의 경우 한번 촬영하여 영상을 획득하는데 오랜 시간이 요구되기 때문에 CT 및 MR 영상은 실시간 영상을 얻기는 어렵다.
종양 치료 장치(100)는 영상 검출 장치(30)로부터 실시간으로 영상들을 획득하고, 의료 영상 생성 장치(50)로부터 획득한 의료 영상을 이용하여 장기 모델을 생성하고, 실시간 영상 및 장기 모델을 정합(registration)하여 장기의 이동 위치 및 변형된 형상을 추정하여 장기 내의 종양의 위치를 추적한다.
치료 장치(40)는 종양을 제거하는 장치이다. 예를 들어, 치료 장치(40)는 고강도 집속 초음파(high-intensity focused ultrasound) 장치일 수 있다. 고강도 집속 초음파 장치는 집속된 초음파를 치료하고자 하는 부위에 초점을 맞추고 초음파를 조사하여 종양의 국소적 파괴(focal destruction) 또는 괴사(necrosis)를 야기시켜 종양을 제거 또는 치료하는 장치이다. 고강도 집속 초음파 장치(40)가 고강도 집속 초음파의 초점을 특정 위치에 맞추어 지속적으로 조사하면, 조사되는 세포의 온도가 상승하게 되고, 일정 온도 이상 상승한 조직은 괴사하게 된다.
도 2는 도 1에 도시된 종양 추적 장치(10)의 일 예를 설명하기 위한 도면이다. 도 2를 참조하면, 종양 추적 장치(10)는 장기 모델 생성부(11), 주변 장기 모델 정합부(12), 대상 장기 모델 정합부(13) 및 종양 추정부(14)를 포함한다. 종양 추적 장치(10)는 의료 영상 생성 장치(50) 및 영상 검출 장치(30)로부터 입력 받은 영상 정보들을 기초로 종양의 위치를 추적한다.
장기 모델 생성부(11)는 의료 영상 생성 장치(50)로부터 의료 영상을 입력 받아 장기의 형태와 장기의 특징을 포함하는 장기 모델들을 생성한다. 장기 모델들은 대상 장기 모델과 주변 장기 모델을 포함한다. 대상 장기 모델은 종양을 포함하는 장기의 모델이고, 주변 장기 모델은 대상 장기에 인접한 장기의 모델이다. 장기 모델 생성부(11)는 생성된 장기 모델들을 주변 장기 모델 정합부(12) 또는 대상 장기 모델 정합부(13)로 출력한다. 장기 모델 생성부(11)는 생성된 주변 장기 모델은 주변 장기 모델 정합부(12)로 출력하고, 생성된 대상 장기 모델은 대상 장기 모델 정합부(13)로 출력한다.
주변 장기 모델 정합부(12)는 주변 장기 모델과 실시간 영상을 정합하여 주변 장기 모델의 위치와 형상을 결정한다. 다시 말해서, 주변 장기 모델 정합부(12)는 주변 장기 모델과 실시간 영상으로부터 추출한 특징들을 기초로 주변 장기 모델의 위치와 형상을 업데이트한다. 실시간 영상은 영상 검출 장치(30)로부터 입력되는 영상으로 대상 장기와 주변 장기들을 포함하는 영상이다. 주변 장기 모델과 실시간 영상으로부터 추출한 특징들은 장기의 윤곽선(contour), 혈관, 낭종(cyst) 또는 석회화(calcification) 등이다. 주변 장기 모델 정합부(12)는 주변 장기 모델과 실시간 영상으로부터 추출한 특징들의 위치가 일치하도록 주변 장기 모델의 위치 및 형상을 업데이트하고, 업데이트된(updated) 주변 장기 모델을 대상 장기 모델 정합부(13)로 출력한다.
대상 장기 모델 정합부(13)는 업데이트된 주변 장기 모델을 기초로 대상 장기 모델의 위치와 형상을 결정한다. 다시 말해서, 대상 장기 모델 정합부(13)는 업데이트된 주변 장기 모델의 위치와 형상에 따라서, 대상 장기 모델의 위치와 형상을 결정한다. 대상 장기 모델 정합부(13)는 장기 모델 생성부(11)로부터 대상 장기 모델을 수신한다.
대상 장기 모델 정합부(13)는 영상 검출 장치(30)로부터 입력된 실시간 영상을 기초로 대상 장기 모델과 실시간 영상을 정합한다. 대상 장기 모델 정합부(13)는 실시간 영상으로부터 추출된 대상 장기의 해부학적 특징과 대상 장기 모델의 해부학적 특징을 정합하여 대상 장기 모델을 업데이트한다. 이때, 실시간 영상에서 추출된 대상 장기의 해부학적 특징들이 정합을 수행하기에 부족한 경우라도, 대상 장기 모델 정합부(13)는 업데이트된 주변 장기 모델을 기초로 대상 장기 모델을 업데이트할 수 있다. 다시 말해서, 대상 장기 모델 정합부(13)는 업데이트된 주변 장기 모델의 위치 및 형상에 따라, 대상 장기 모델의 위치 및 형상을 결정한다. 이때, 대상 장기 모델 정합부(13)는 업데이트된 주변 장기 모델과 실시간 영상으로부터 추출된 대상 장기의 해부학적 특징을 모두를 기초로 대상 장기의 위치 및 형상을 결정할 수 있다. 예를 들어, 대상 장기가 간(liver)인 경우, 간 경변(cirrhosis) 때문에 실시간 영상에서 간의 혈관을 추출하기 어렵기 때문에, 간의 실시간 영상만으로 간의 위치 및 형상을 추정하기 어렵다. 따라서, 주변 장기 모델 정합부(12)는 우선적으로 간의 주변에 위치한 주변 장기의 특징을 추출하여 주변 장기의 위치와 형상을 결정하고, 결정된 주변 장기의 위치와 형상에 따라, 대상 장기 모델 정합부(13)가 간의 위치 및 형상을 추정함으로써, 간의 특징을 추출하기 어려운 경우라도 간의 위치 및 형상을 추정할 수 있다.
종양 추정부(14)는 대상 장기 모델에서 종양의 위치를 추정한다. 종양 추정부(14)는 의료 영상 생성 장치(50)로부터 입력된 의료 영상 및 장기 모델 생성부(11)에서 생성된 대상 장기 모델에서 종양의 위치를 획득한다. 대상 장기 모델 정합부(13)가 대상 장기 모델을 업데이트하면(즉, 대상 장기 모델을 이동 또는 변형), 종양 추정부(14)는 대상 장기 모델에서 종양의 위치가 어느 지점으로 이동하는지를 추정한다.
도 3은 도 1의 종양 추적 장치(10)가 종양의 위치를 추적하는 각 단계를 설명하기 위한 도면이다. 도 3의 각 단계는 도 4 내지 도 6에서 보다 상세히 도시되어 있다. 따라서, 이하에서는 도 3 내지 도 6을 함께 설명하겠다.
도 3을 참조하면, 310단계에서, 장기 모델 생성부(11)는 고해상도 영상을 획득하여, 대상 장기와 주변 장기의 모델을 생성한다. 311단계에서, 장기 모델 생성부(11)는 고해상도 영상을 획득한다. 여기서 고해상도 영상은 장기에 포함된 혈관 또는 종양 등이 식별 가능한 영상을 나타낸다. 예를 들어, 고해상도 영상은 자기공명 영상 또는 CT 영상 등이 될 수 있으며, 장기 모델 생성부(11)는 호흡 주기에 따라 CT 또는 자기공명 영상을 입력 받는다. 따라서, 장기 모델 생성부(11)는 호흡 주기에 따라 장기들의 모델을 생성할 수 있다. 예를 들어, 도 4에서와 같이, 장기 모델 생성부(11)는 고해상도 영상(410)을 획득한다. 도 4의 고해상도 영상(410)은 대상 장기 및 주변 장기를 포함하는 영상의 일 예이다.
312단계에서, 장기 모델 생성부(11)는 획득한 고해상도 영상으로부터 대상 장기 및 주변 장기의 특징을 추출한다. 장기 모델 생성부(11)는 고해상도 영상에 포함된 장기들의 볼륨(volume), 윤곽선(contour) 또는 혈관과 같은 장기의 해부학적 특징을 추출한다. 예를 들어, 장기의 볼륨을 추출하는 과정에서 전경과 배경(foreground and background)으로부터 영역성장기법(region growing) 방식인 3차원 그래픽 절단(3D graph cut) 등이 사용될 수 있으며, 혈관을 추출하는 과정에서 가우시안 혼합 모델(Gaussian mixture model) 등이 사용될 수 있다. 또한, 장기 모델 생성부(11)는 3차원 장기 모델을 생성하는데 3차원 ASM(active shape models) 알고리즘을 사용할 수 있다. 도 4의 영상(420)은 고해상도 영상(410)으로부터 추출된 해부학적 특징들을 나타내는 영상의 일 예이다.
313단계에서, 장기 모델 생성부(11)는 대상 장기 및 주변 장기의 형상을 모델링한다. 장기 모델 생성부(11)는 312단계에서 추출된 장기들이 해부학적 특징들을 이용하여, 그래픽 모델(graphical model)을 생성한다. 예를 들어, 그래픽 모델로 생성하는 방법은 분할된 각 볼륨의 표면(surface)에 대하여 마칭 큐브 알고리즘(marching cubes algorithm)으로 3차원 메쉬(3D mesh)를 획득하는 방법이 적용될 수 있다. 도 4의 모델(430)은 추출된 해부학적 특징들을 기초로 생성된 장기의 모델을 나타내는 일 예이다.
314단계에서, 장기 모델 생성부(11)는 대상 장기 및 주변 장기의 모션(움직임)을 모델링한다. 모션을 모델링하는 단계는 호흡에 따라 각 장기들의 위치가 변하는 것을 모델링하는 과정과 호흡에 따라서 각 장기들의 형상이 변하는 것을 모델링하는 과정을 포함한다.
도 4의 그래프(440)는 대상 장기와 주변 장기의 모션을 모델링하는 것을 설명하기 위한 그래프이다. 그래프(440)의 x축은 시간을 나타내고, y축은 변위(displacement)를 나타낸다. 그래프(440)는 호흡에 따라 장기가 이동하는 변위를 나타내는 그래프이다. 곡선(441)은 대상 장기의 변위를 나타내고, 곡선(442)는 주변 장기의 변위를 나타낸다. 그래프(440)는 대상 장기의 변위가 주변 장기의 변위보다 큰 경우이다. 장기 모델 생성부(11)는 대상 장기와 주변 장기의 호흡에 따른 변위를 기초로 대상 장기와 주변 장기의 모션을 모델링한다. 장기 모델 생성부(11)는 그래프(440)와 같이 호흡에 따른 장기들의 변위를 기초로 장기들의 모션을 모델링한다. 즉, 장기 모델 생성부(11)는 장기들 간의 상호작용에 의해 장기들의 위치와 형상이 시간에 따라 변화되는 것을 그래픽 모델(graphical model)로 나타낸다. 호흡에 의한 장기의 움직임은 흉곽(rib cage)과 횡격막(diaphragm)의 능동적인 움직임에 따라, 폐를 포함한 주변 장기가 수동적으로 움직이는 것을 말한다. 횡격막의 움직임에 따라 연쇄적으로 움직이는 장기로는 간(liver), 신장(kidney), 췌장(pancreas), 하대정맥(IVC) 및 쓸개(gallbladder) 등이 있다.
320단계에서, 주변 장기 모델 정합부(12)는 저해상도 영상을 획득하여, 주변 장기 모델과 저해상도 영상을 정합한다. 321단계에서, 주변 장기 모델 정합부(12)는 저해상도 영상을 획득한다. 여기서 저해상도 영상은 311단계에서 획득된 고해상도 영상보다 낮은 해상도를 갖는 영상이다. 예를 들어, 저해상도 영상은 3차원 또는 2차원 초음파 영상 등이 될 수 있다. 초음파 영상들은 실시간으로 획득하는 것이 가능하다. 주변 장기 모델 정합부(12)는 저해상도 영상을 호흡 중에 실시간으로 획득한다. 저해상도 영상은 2차원 혹은 3차원 영상일 수 있다. 도 5의 3차원 초음파 영상(510) 및 2차원 초음파 영상(520)은 저해상도 영상의 일 예이다. 즉, 초음파 영상은 자기공명 영상이나 CT 영상에 비하여 해상도가 낮지만, 실시간으로 획득된다.
322단계에서, 주변 장기 모델 정합부(12)는 주변 장기의 특징을 추출한다. 윤곽선(contour)은 모든 장기들에 대하여 추출된다. 또한, 주변 장기 모델 정합부(12)는 각각의 장기마다 고유의 해부학적 특징을 추출한다. 예를 들어, 신장의 해부학적 특징으로는 신장 피질(renal cortex), 신장 수질(renal medulla) 또는 신장 굴(renal sinus) 등이 있다. 도 5의 영상(530)은 3차원 초음파 영상(510) 또는 2차원 초음파 영상(520)으로부터 추출된 주변 장기의 특징을 나타내는 영상이다.
323단계에서, 주변 장기 모델 정합부(12)는 주변 장기 모델의 위치를 정합한다. 주변 장기 모델 정합부(12)는 추출된 각 장기의 해부학적 특징에 기초하여 주변 장기 모델의 크기, 방향 및 위치를 결정한다.
324단계에서, 주변 장기 모델 정합부(12)는 주변 장기 모델의 형상을 정합한다. 주변 장기 모델 정합부(12)는 주변 장기 모델의 형상을 변형하여 입력된 실시간 영상과 정합한다.
도 5의 영상(540)은 주변 장기 모델 정합부(12)가 횡격막(541)과 쓸개(542)를 정합하는 것을 설명하기 위한 도면이다. 예를 들어, 대상 장기는 간이고, 간의 주변 장기는 횡격막과 쓸개일 때, 주변 장기 모델 정합부(12)는 횡격막 모델(541)과 쓸개 모델(542)의 위치와 형상을 결정한다.
330단계에서, 대상 장기 모델 정합부(13)는 주변 장기 모델에 기초하여 대상 장기 모델을 정합한다. 대상 장기 모델 정합부(13)에 입력되는 주변 장기 모델은 320단계를 통하여 정합된 모델이다. 다시 말해서, 대상 장기 모델 정합부(13)에 입력되는 주변 장기 모델은 고해상도 영상을 기초로 생성된 주변 장기 모델과 저해상도 영상을 정합하여 위치 및 형상이 업데이트된 모델이다. 따라서, 정합된(또는 업데이트된) 주변 장기 모델은 대상체의 호흡에 따라 변형된 주변 장기들의 위치와 형상들을 나타낸다.
331단계에서, 대상 장기 모델 정합부(13)는 대상 장기의 특징을 추출한다. 대상 장기 모델 정합부(13)는 321단계에서 획득된 저해상도 영상에서 치료의 대상이 되는 대상 장기의 해부학적 특징들을 추출한다. 도 6의 영상(610)은 대상 장기로부터 추출된 대상 장기의 특징을 나타내는 영상의 일 예이다.
332단계에서, 대상 장기 모델 정합부(13)는 대상 장기 모델의 위치를 정합한다. 대상 장기 모델 정합부(13)는 대상체의 호흡 단계(respiratory phase)를 기초로 대상 장기 모델이 놓일 위치를 결정한다. 대상체의 호흡 단계는 업데이트된 주변 장기 모델의 위치에 따라 결정된다. 대상 장기 모델 정합부(13)는 대상체의 호흡 단계를 결정하고, 314단계에서 모델링한 대상 장기의 모션 모델링 결과를 사용하여 대상 장기의 위치를 결정한다. 또한, 대상 장기 모델 정합부(13)는 저해상도 영상에 대상 장기 모델을 이동 또는 회전시키면서 강체 정합(rigid registration)을 수행한다.
333단계에서, 대상 장기 모델 정합부(13)는 대상 장기 모델의 형상을 정합한다. 대상 장기 모델 정합부(13)는 대상 장기의 형상을 추정하여 대상 장기 모델의 형상을 변형한다. 대상 장기 모델 정합부(13)는 대상 장기로부터 추출된 특징들과 결정된 호흡 단계를 기초로 대상 장기 모델의 형상의 변형을 추정할 수 있다. 대상 장기 모델 정합부(13)는 추정된 대상 장기 모델과 저해상도 영상을 비강체 정합(non-rigid registration)을 수행한다.
340단계에서, 종양 추정부(14)는 대상 장기 내에 위치한 종양의 위치를 추정한다. 종양 추정부(14)는 대상 장기 모델 정합부(13)로부터 정합된(업데이트된) 대상 장기 모델을 수신하여, 대상 장기 모델에 위치한 종양의 위치를 추정한다. 도 6의 영상(620)은 대상 장기 모델 정합부(13)가 대상 장기의 위치 및 형상을 정합하는 일 예를 나타내는 영상이다. 대상 장기 모델 정합부(13)는 횡격막 모델(541)과 쓸개 모델(542)을 기초로 간 모델(621)의 위치 및 형상을 정합한다.
도 7은 도 2의 종양 추적 장치(10)가 종양을 추적하는 실시 예를 설명하는 도면이다. 따라서, 이하 생략된 내용이라 하더라도 도 2에서 설명된 종양 추적 장치(10)에 관하여 이상에서 기술된 내용은 도 7의 실시 예에서도 적용된다.
710단계에서, 장기 모델 생성부(11)는 종양이 위치한 대상 장기 및 대상 장기의 주변 장기의 해부학적 정보를 포함하는 의료 영상을 이용하여 대상 장기 모델 및 주변 장기 모델을 생성한다. 대상 장기 모델 및 주변 장기 모델은 실시간 영상이 입력되지 전에 미리 생성된다.
720단계에서, 주변 장기 모델 정합부(12)는 대상 장기 및 주변 장기를 포함하는 실시간 영상을 주변 장기 모델과 정합한다.
730단계에서, 대상 장기 모델 정합부(13)는 정합된 주변 장기 모델을 기초로 대상 장기 모델을 정합한다.
740단계에서, 종양 추정부(14)는 정합된 대상 장기 모델을 기초로 종양의 위치를 추정한다. 740단계를 종료하면, 720단계부터 각 단계를 반복한다.
한편, 상술한 본 발명의 실시 예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 본 발명의 실시 예에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.
이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
10: 종양 추적 장치
11: 장기 모델 생성부
12: 주변 장기 모델 정합부
13: 대상 장기 모델 정합부
14: 종양 추정부
30: 영상 검출 장치
50: 의료 영상 생성 장치

Claims (17)

  1. 종양의 위치를 추적하는 장치가 신체 활동에 의해 변하는 종양의 위치를 추적하는 방법에 있어서,
    종양이 위치한 대상 장기 및 상기 대상 장기의 주변의 적어도 둘 이상의 주변 장기들의 해부학적 정보를 포함하는 의료 영상을 이용하여, 대상 장기 모델 및 주변 장기 모델을 생성하는 단계;
    상기 대상 장기 및 상기 적어도 둘 이상의 주변 장기들을 포함하는 실시간 영상을 기초로, 상기 주변 장기 모델이 모델링하는 상기 적어도 둘 이상의 주변 장기들의 형상 및 위치를 업데이트함으로써 상기 주변 장기 모델을 업데이트하는 단계;
    상기 업데이트된 주변 장기 모델을 기초로, 상기 대상 장기 모델을 업데이트하는 단계; 및
    상기 업데이트된 대상 장기 모델을 기초로 상기 종양의 위치를 추정하는 단계를 포함하고,
    상기 대상 장기 모델을 업데이트하는 단계는,
    상기 업데이트된 주변 장기 모델이 모델링하는 상기 적어도 둘 이상의 주변 장기들의 위치를 기초로, 상기 실시간 영상 내의 대상체의 호흡 단계를 결정하는 단계; 및
    상기 결정된 대상체의 호흡 단계 및 상기 실시간 영상을 기초로, 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 형상 및 위치를 업데이트함으로써 상기 대상 장기 모델을 업데이트하는 단계를 포함하고,
    상기 의료 영상은 고해상도 영상이고, 상기 실시간 영상은 상기 의료 영상의 해상도보다 낮은 해상도를 갖는 저해상도 영상인 것인, 종양의 위치를 추적하는 방법.
  2. 삭제
  3. 제 1 항에 있어서, 상기 대상 장기 모델을 업데이트하는 단계는,
    상기 실시간 영상으로부터 상기 대상 장기의 특징을 추출하는 단계; 및
    상기 추출된 대상 장기의 특징을 기초로 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 위치와 형상을 추정하는 단계를 더 포함하는 종양의 위치를 추적하는 방법.
  4. 제 3 항에 있어서, 상기 대상 장기 모델을 업데이트하는 단계는,
    상기 추출된 대상 장기의 특징 및 상기 업데이트된 주변 장기 모델을 기초로 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 위치와 형상을 추정하는 단계를 더 포함하는 종양의 위치를 추적하는 방법.
  5. 제 3 항에 있어서, 상기 대상 장기 모델을 업데이트하는 단계는,
    상기 추출된 대상 장기의 특징 및 상기 대상체의 호흡 단계를 기초로 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 위치 및 변형을 추정하는 단계를 더 포함하는, 종양의 위치를 추적하는 방법.
  6. 제 1 항에 있어서, 상기 대상 장기 모델 및 주변 장기 모델을 생성하는 단계는,
    상기 대상 장기 및 상기 적어도 둘 이상의 주변 장기들의 형상을 나타내는 모델들을 생성하는 단계; 및
    상기 생성된 모델들의 움직임을 모델링하는 단계를 포함하는 종양의 위치를 추적하는 방법.
  7. 제 1 항에 있어서, 상기 장기 모델을 생성하는 단계는,
    상기 대상체의 호흡 단계에 따라 상기 대상 장기 및 상기 적어도 둘 이상의 주변 장기들의 위치와 형상을 모델링하는 것을 특징으로 하는 종양의 위치를 추적하는 방법.
  8. 제 1 항에 있어서,
    상기 대상 장기 모델 및 상기 주변 장기 모델은 상기 실시간 영상이 입력되기 전에 미리 생성되는 것을 특징으로 하는 종양의 위치를 추적하는 방법.
  9. 제1항 및 제3항 내지 제8항 중의 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램으로 기록한 컴퓨터로 읽을 수 있는 기록매체.
  10. 신체 활동에 의해 변하는 종양의 위치를 추적하는 장치에 있어서,
    종양이 위치한 대상 장기 및 상기 대상 장기의 주변의 적어도 둘 이상의 주변 장기들의 해부학적 정보를 포함하는 의료 영상을 이용하여, 대상 장기 모델 및 주변 장기 모델을 생성하는 장기 모델 생성부;
    상기 대상 장기 및 상기 적어도 둘 이상의 주변 장기들을 포함하는 실시간 영상을 기초로, 상기 주변 장기 모델이 모델링하는 상기 적어도 둘 이상의 주변 장기들의 형상 및 위치를 업데이트함으로써 상기 주변 장기 모델을 업데이트하는 주변 장기 모델 정합부;
    상기 업데이트된 주변 장기 모델을 기초로, 상기 업데이트된 주변 장기 모델이 모델링하는 상기 적어도 둘 이상의 주변 장기들의 위치를 기초로, 상기 실시간 영상 내의 대상체의 호흡 단계를 결정하고, 상기 결정된 대상체의 호흡 단계 및 상기 실시간 영상을 기초로, 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 형상 및 위치를 업데이트함으로써 상기 대상 장기 모델을 업데이트하는 대상 장기 모델 정합부; 및
    상기 업데이트된 대상 장기 모델을 기초로 상기 종양의 위치를 추정하는 종양 추정부를 포함하고,
    상기 의료 영상은 고해상도 영상이고, 상기 실시간 영상은 상기 의료 의료 영상의 해상도보다 낮은 해상도를 갖는 저해상도 영상인 것인, 종양 추적 장치.
  11. 삭제
  12. 제 10 항에 있어서,
    상기 대상 장기 모델 정합부는 상기 실시간 영상으로부터 상기 대상 장기의 특징을 추출하고, 상기 추출된 대상 장기의 특징을 기초로 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 위치와 형상을 추정하는 종양 추적 장치.
  13. 제 12 항에 있어서,
    상기 대상 장기 모델 정합부는 상기 추출된 대상 장기의 특징 및 상기 업데이트된 주변 장기 모델을 기초로 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 위치와 형상을 추정하는 종양 추적 장치.
  14. 제 12 항에 있어서,
    상기 대상 장기 모델 정합부는 상기 추출된 대상 장기의 특징 및 상기 대상체의 호흡 단계를 기초로 상기 대상 장기 모델이 모델링하는 상기 대상 장기의 위치 및 변형을 추정하는 종양 추적 장치.
  15. 제 10 항에 있어서,
    상기 장기 모델 생성부는 상기 대상 장기 및 상기 적어도 둘 이상의 주변 장기들의 형상을 나타내는 모델들을 생성하고, 상기 생성된 모델들의 움직임을 모델링하는 종양 추적 장치.
  16. 제 10 항에 있어서,
    상기 장기 모델 생성부는 상기 대상체의 호흡 단계에 따라 상기 대상 장기 및 상기 적어도 둘 이상의 주변 장기들의 위치와 형상을 모델링하는 종양 추적 장치.
  17. 제 10 항에 있어서,
    상기 대상 장기 모델 및 상기 주변 장기 모델은 상기 실시간 영상이 입력되기 전에 미리 생성되는 종양 추적 장치.
KR1020120086936A 2012-08-08 2012-08-08 종양의 위치를 추적하는 방법 및 장치 KR102070427B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020120086936A KR102070427B1 (ko) 2012-08-08 2012-08-08 종양의 위치를 추적하는 방법 및 장치
US13/930,042 US10368809B2 (en) 2012-08-08 2013-06-28 Method and apparatus for tracking a position of a tumor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120086936A KR102070427B1 (ko) 2012-08-08 2012-08-08 종양의 위치를 추적하는 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20140020485A KR20140020485A (ko) 2014-02-19
KR102070427B1 true KR102070427B1 (ko) 2020-01-28

Family

ID=50066702

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120086936A KR102070427B1 (ko) 2012-08-08 2012-08-08 종양의 위치를 추적하는 방법 및 장치

Country Status (2)

Country Link
US (1) US10368809B2 (ko)
KR (1) KR102070427B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915822B2 (en) 2020-11-30 2024-02-27 Coreline Soft Co., Ltd. Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up examination

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3157436B1 (en) * 2014-06-18 2021-04-21 Koninklijke Philips N.V. Ultrasound imaging apparatus
US11135447B2 (en) * 2015-07-17 2021-10-05 Koninklijke Philips N.V. Guidance for lung cancer radiation
GB2542114B (en) * 2015-09-03 2018-06-27 Heartfelt Tech Limited Method and apparatus for determining volumetric data of a predetermined anatomical feature
WO2017093034A1 (en) * 2015-12-01 2017-06-08 Brainlab Ag Method and apparatus for determining or predicting the position of a target
WO2017103196A1 (en) * 2015-12-18 2017-06-22 Koninklijke Philips N.V. Apparatus and method for characterizing a tissue of a subject
WO2017120266A1 (en) * 2016-01-08 2017-07-13 Flir Systems, Inc. Systems and methods for image resolution enhancement
EP3691534B1 (en) * 2017-10-05 2023-11-29 Insightec Ltd. Ultrasound therapy
US11705238B2 (en) * 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US20220180525A1 (en) * 2019-03-21 2022-06-09 Covidien Lp Organ segmentation method and system
US20210113098A1 (en) * 2019-10-16 2021-04-22 Canon U.S.A., Inc. Image processing apparatus, method and storage medium to determine longitudinal orientation
CN113112486B (zh) * 2021-04-20 2022-11-29 中国科学院深圳先进技术研究院 一种肿瘤的运动估计方法、装置、终端设备和存储介质

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62186381A (ja) 1986-02-12 1987-08-14 Hitachi Ltd 画像位置合わせ方式
JP2897772B1 (ja) 1998-06-01 1999-05-31 日本電気株式会社 画像位置合わせ方法、画像位置合わせ装置及び記録媒体
US8805073B2 (en) * 2003-02-18 2014-08-12 Koninklijke Philips N.V. Image segmentation by assigning classes to adaptive mesh primitives
US7570791B2 (en) 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
US20070276214A1 (en) * 2003-11-26 2007-11-29 Dachille Frank C Systems and Methods for Automated Segmentation, Visualization and Analysis of Medical Images
US8989349B2 (en) * 2004-09-30 2015-03-24 Accuray, Inc. Dynamic tracking of moving targets
US8108072B2 (en) * 2007-09-30 2012-01-31 Intuitive Surgical Operations, Inc. Methods and systems for robotic instrument tool tracking with adaptive fusion of kinematics information and image information
US7889905B2 (en) 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7855723B2 (en) 2006-03-21 2010-12-21 Biosense Webster, Inc. Image registration using locally-weighted fitting
US7996060B2 (en) 2006-10-09 2011-08-09 Biosense Webster, Inc. Apparatus, method, and computer software product for registration of images of an organ using anatomical features outside the organ
US8358818B2 (en) * 2006-11-16 2013-01-22 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
KR20090098842A (ko) 2006-12-29 2009-09-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 이미지 유도 중재 시술에서 수술중 움직임을 보상하는 개선된 이미지 정합 및 방법
US10292619B2 (en) 2007-07-09 2019-05-21 Covidien Lp Patient breathing modeling
US9002055B2 (en) 2007-10-12 2015-04-07 Toyota Motor Europe Nv Methods and systems for matching keypoints and tracking regions between frames of video data
US8111892B2 (en) 2008-06-04 2012-02-07 Medison Co., Ltd. Registration of CT image onto ultrasound images
JP5241357B2 (ja) * 2008-07-11 2013-07-17 三菱プレシジョン株式会社 生体データモデル作成方法及びその装置
KR100979335B1 (ko) 2008-07-17 2010-08-31 울산대학교 산학협력단 흉부 ct영상을 이용한 자동 공기 포획 정량화 방법
KR101132536B1 (ko) 2008-12-02 2012-04-02 삼성메디슨 주식회사 영상 정합을 수행하는 시스템 및 방법
KR101028365B1 (ko) 2009-02-04 2011-04-11 서울대학교산학협력단 연속된 컴퓨터 단층촬영의 폐결절 다단계 정합 방법 및 장치
JP5806448B2 (ja) 2009-05-13 2015-11-10 株式会社東芝 核医学イメージング装置、画像処理装置および画像処理方法
KR101121353B1 (ko) 2009-08-03 2012-03-09 한국과학기술원 2차원 초음파 영상에 대응하는 2차원 ct 영상을 제공하는 시스템 및 방법
KR101144579B1 (ko) 2009-08-18 2012-05-09 서울여자대학교 산학협력단 호기 및 흡기 컴퓨터 단층촬영 영상의 비강체 폐 영상 정합 장치 및 방법
JP5702572B2 (ja) 2009-10-29 2015-04-15 株式会社東芝 X線撮影装置
KR101047615B1 (ko) 2009-11-02 2011-07-07 삼성에스디에스 주식회사 해상도 차이를 이용한 증강현실 정합 시스템 및 방법
JP5631698B2 (ja) 2009-12-07 2014-11-26 株式会社東芝 医用画像処理装置及び医用画像処理方法
KR20110078274A (ko) 2009-12-31 2011-07-07 주식회사 사이버메드 이미지 정합을 이용한 혈관 치료용 마이크로 로봇의 위치 추적 방법
US8311303B2 (en) * 2010-01-12 2012-11-13 Siemens Corporation Method and system for semantics driven image registration
KR101118549B1 (ko) 2010-06-15 2012-02-22 연세대학교 산학협력단 의료용 융합영상 획득장치 및 획득방법
WO2012019162A1 (en) * 2010-08-06 2012-02-09 Accuray, Inc. Systems and methods for real-time tumor tracking during radiation treatment using ultrasound imaging
US9129426B2 (en) * 2010-08-31 2015-09-08 General Electric Company Motion compensation in image processing
US20120071757A1 (en) 2010-09-17 2012-03-22 University Of British Columbia Ultrasound Registration
JP5872323B2 (ja) * 2011-03-29 2016-03-01 株式会社東芝 X線ct装置及び画像処理方法
US20120253170A1 (en) 2011-03-29 2012-10-04 Samsung Electronics Co., Ltd. Method and apparatus for generating medical image of body organ by using 3-d model

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Frank Preiswerk 외 3인. A Bayesian Framework for Estimating Respiratory Liver Motion from Sparse Measurements. Abdominal Imaging. Computational and Clinical Applications. 2011년, vol.7029, pp.207-214*
Frank Preiswerk 외 3인. Robust Tumour Tracking From 2D Imaging Using a Population-Based Statistical Motion Model. IEEE Workshop on Mathematical Methods in Biomedical Image Analysis. 2012년 1월, pp.209-214*
Kristy K. Brock 외 4인. FEASIBILITY OF A NOVEL DEFORMABLE IMAGE REGISTRATION TECHNIQUE TO FACILITATE CLASSIFICATION, TARGETING, AND MONITORING OF TUMOR AND NORMAL TISSUE.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915822B2 (en) 2020-11-30 2024-02-27 Coreline Soft Co., Ltd. Medical image reading assistant apparatus and method for adjusting threshold of diagnostic assistant information based on follow-up examination

Also Published As

Publication number Publication date
KR20140020485A (ko) 2014-02-19
US20140046172A1 (en) 2014-02-13
US10368809B2 (en) 2019-08-06

Similar Documents

Publication Publication Date Title
KR102070427B1 (ko) 종양의 위치를 추적하는 방법 및 장치
KR102094502B1 (ko) 의료 영상들의 정합 방법 및 장치
KR102114415B1 (ko) 의료 영상 정합 방법 및 장치
US9563949B2 (en) Method and apparatus for medical image registration
JP5317805B2 (ja) 軟部組織塊を追跡するシステム及びコンピュータにより実施されるその方法
JP6533991B2 (ja) 医用画像処理装置、方法、プログラム及び放射線治療装置
KR20140126815A (ko) 호흡 주기 동안 체내 장기의 변화를 추적하는 방법, 장치 및 시스템.
US20150051480A1 (en) Method and system for tracing trajectory of lesion in a moving organ using ultrasound
KR102106535B1 (ko) 일 호흡 주기에 따른 장기의 형상 및 위치의 변화를 나타내는 모델을 생성하는 방법, 장치 및 시스템.
JP6182045B2 (ja) 画像処理装置およびその方法
JP2011131062A (ja) 超音波画像を使用した高速解剖学的マッピング
KR20120096265A (ko) 초음파 치료를 위한 종양 추적 장치 및 방법, 초음파 치료 시스템
KR20140008746A (ko) 움직이는 장기에 초음파를 조사하여 장기 특정 부위의 온도 변화를 나타내는 온도 맵을 생성하는 방법 및 초음파 시스템
US20130346050A1 (en) Method and apparatus for determining focus of high-intensity focused ultrasound
KR20140146955A (ko) 초음파를 생성하는 방법, 장치 및 시스템
KR102233966B1 (ko) 의료 영상 정합 방법 및 그 장치
US10573009B2 (en) In vivo movement tracking apparatus
Seo et al. Ultrasound image based visual servoing for moving target ablation by high intensity focused ultrasound
US10076311B2 (en) Method and apparatus for registering medical images
CN107847216A (zh) 对肺癌辐射的指导
Miller et al. Histotripsy cardiac therapy system integrated with real-time motion correction
Onogi et al. Automatic doppler volume fusion of 3D Ultrasound using point-based registration of shared bifurcation points
Chen et al. Harmonic motion imaging in abdominal tumor detection and HIFU ablation monitoring: A feasibility study in a transgenic mouse model of pancreatic cancer
KR20140021109A (ko) 초음파를 이용하여 움직이는 장기 내부에 위치한 병변의 이동 궤적을 추적하는 방법 및 시스템
Fujii et al. Servoing performance enhancement via a respiratory organ motion prediction model for a non-invasive ultrasound theragnostic system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant