KR101156306B1 - 기구 추적 방법 및 장치 - Google Patents
기구 추적 방법 및 장치 Download PDFInfo
- Publication number
- KR101156306B1 KR101156306B1 KR1020050009355A KR20050009355A KR101156306B1 KR 101156306 B1 KR101156306 B1 KR 101156306B1 KR 1020050009355 A KR1020050009355 A KR 1020050009355A KR 20050009355 A KR20050009355 A KR 20050009355A KR 101156306 B1 KR101156306 B1 KR 101156306B1
- Authority
- KR
- South Korea
- Prior art keywords
- instrument
- image
- images
- orientation
- series
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000003068 static effect Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 238000004891 communication Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 description 10
- 238000005259 measurement Methods 0.000 description 9
- 238000001356 surgical procedure Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000000691 measurement method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 241000282412 Homo Species 0.000 description 2
- 238000012152 algorithmic method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000000053 physical method Methods 0.000 description 2
- 125000002015 acyclic group Chemical group 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000000278 spinal cord Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 일련의 영상에 대해서 기구 추적을 위한 방법(200, 300) 및 장치(100)에 관한 것이다. 본 방법(200, 300)은 영상에 대해서 기구 추적을 수행하는 것에 관한 것이다. 본 방법(200, 300)은 적어도 하나의 영상을 수집(210, 320)하는 단계와, 적어도 하나의 수집된 영상에 대해서 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 계산(230, 350)하는 단계를 포함한다. 본 방법(200, 300)은 또한, 수집되어 계산된 적어도 하나의, 몇몇의 또는 전체의 데이터에서 별도로 또는 임의의 조합으로 표시(240, 354)를 하는 것에 관한 것이다.
Description
도 1은 본 발명의 어떤 실시예에 따라 사용되는 촬상 또는 표시 시스템, 디바이스, 머신 또는 장치를 도시하는 도면,
도 2는 본 발명의 어떤 실시예에 따라 도 1에 도시한 것과 유사한 촬상 또는 표시 장치를 이용하여 기구 추적을 수행하는 방법의 하이 레벨 흐름도,
도 3은 본 발명의 어떤 실시예에 따라 도 1에 도시한 것과 유사한 촬상 또는 표시 장치를 이용하여 일련의 스크롤 투시 영상에 대한 기구 추적을 수행하는 방법을 설명하는 상세한 흐름도.
도면의 주요 부분에 대한 부호의 설명
110 : C 암(C-arm) 130 : X선 검출기
160 : 영상 처리기 170 : 추적기 모듈
190 : 출력부
본 발명의 적어도 하나의 실시예는 기구 추적에 관한 것이다. 보다 상세하게, 본 발명의 적어도 하나의 실시예는 표시 장치를 이용하여 일련의 스크롤 영상에 대한 기구 추적에 관한 것이다.
기구 이동(instrument navigation)을 포함하는 컴퓨터 보조 수술 절차가 알려져 있다. 이러한 컴퓨터 보조 수술 절차의 한가지 공통된 요소에는 계속 진행하면서 사용자 또는 조작자에게 기구 위치(position) 및/또는 방향(orientation)을 전달하기 위한 한가지 방법인 기구 이동이 있다. 통상, 이러한 지식 전달은 환자의 인체(또는 환자 인체의 일부)를 나타내는 촬상 양식을 통해 정적 데이터를 획득함으로써 이루어질 수 있다. 기구의 영상은 이러한 정적 데이터 상에 표시될 수 있다. 이 표시는 예컨대, 복수의 2D 투시 영상(fluoroscopic images), 3D 데이터를 통한 복수의 2D 슬라이스, 3D 표면 모델 또는 기타 데이터를 포함할 수 있다.
이러한 이전에 알려져 있는 컴퓨터 보조 수술 절차는 기구 위치 정보를 사용자가 인지하거나 이해하는 방식으로 제한된다는 것을 이해해야 한다. 예를 들어, 2D 또는 3D 슬라이스 평면 영상을 이용하는 컴퓨터 보조 수술 절차에서, 사용자는 그 절차 과정 중에 제공되는 제한되고 분산된 정보로부터 환자의 인체의 내 상(mental picture)을 결합한다.
예컨대, 3D 모델을 이용하는 컴퓨터 보조 수술 절차에서, 통상적으로 사용자는 한번에 모델의 하나의 특정 투영상을 본다. 한번에 하나의 투영상을 봄으로써, (기구 부분을 포함하는) 상당량의 데이터가 은닉될 수도 있고, 또는 원하는 인체를 보기 위해 모델의 상당한 부분이 제거되는 것을 필요로 할 수도 있는데, 이러한 모든 경우는 제공되는 기구 위치 정보를 이해하기 위해 일반적으로 상당한 사용자 상호작용 및 시각화 기술을 필요로 하게 된다.
본 발명의 적어도 하나의 실시예는 기구 추적에 관한 것이다. 보다 상세하게, 본 발명의 적어도 하나의 실시예는 표시 장치를 이용하여 일련의 스크롤 영상에 대한 기구 추적에 관한 것이다.
적어도 하나의 실시예는 영상에 대한 기구 추적을 수행하는 방법에 관한 것이다. 본 방법은 적어도 하나의 영상을 수집하는 단계와, 적어도 하나의 수집된 영상에 대하여 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 계산하는 단계를 포함한다. 본 방법은 적어도 하나의 수집된 영상, 적어도 하나의 기구의 위치 및 방향 중 적어도 하나 및/또는 위치 및 방향 중 상기 적어도 하나에 위치하는 적어도 하나의 기구의 적어도 하나의 영상을 표시하는 단계를 더 포함한다.
적어도 하나의 실시예에서, 본 방법은 적어도 하나의 수집된 영상 및/또는 적어도 하나의 측정 디바이스 또는 측정 방법을 이용하여 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 수집하는 단계를 더 포함한다. 본 방법은 적어도 하나의 수집된 영상에 대해서 적어도 하나의 기구의 위치 및/또는 방향 중 적어도 하 나를 계산하는데 사용될 수 있다. 또한, 각각의 측정 디바이스는 EM, 광학 장치, 레이저 장치 및 예컨대 인코더 피드백을 통한 물리적 측정을 포함하나 이에 국한되지 않는 하나 이상의 적절한 기술을 사용할 수 있다. 또한, 각각의 측정 방법은 팬톰 데이터를 사용하거나 사용하지 않을 수 있는 위치 예측 방법과, 완전히 영상 기반일 수 있거나 아닐 수 있는 등록 방법을 포함하지만 이에 국한되지는 않는 하나 이상의 알고리즘 방법을 이용할 수 있다.
방법은 적어도 복수의 2D 투시 영상을 수집하는 단계와, 표시부를 이용하여 적어도 복수의 수집된 영상 전체를 연속적으로 스크롤하는 단계를 포함한다. 또한, 방법은 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 복수의 수집된 영상 내에 순차적으로 투사하는 단계를 포함한다.
하나 이상의 실시예에서, 본 방법은 적어도 하나의 영상의 위치 및 방향 중 적어도 하나가 정확하게 표시될 수 있도록 적어도 하나의 수집된 영상을 조정(calibrating)하는 단계를 포함한다. 적어도 하나의 이러한 실시예에서, 본 방법은 적어도 하나의 조정된 영상을 현재 영상으로서 선택하는 단계를 포함한다. 본 방법은 또한, 현재 영상에 대해 적어도 하나의 기구에 대한 위치 및 방향 중 적어도 하나를 계산하는 단계를 포함한다.
방법은 또한, 현재 영상을 포함하여 적어도 하나의 수집된 영상 중 임의의, 몇몇의 또는 전체 영상에 대하여 적어도 하나의 기구에 대한 위치 및/또는 방향 중 적어도 하나를 계산 또는 재계산하기 위해서, 실제의 또는 시뮬레이션된 소스로부터 현재 또는 과거 특징 중 적어도 하나의 수집된 및/또는 계산된 측정 데이터를 사용하기 위한 것이다.
다른 실시예에서, 본 방법은 이동하거나 이동 가능한 적어도 하나의 영상 수집 장치를 이용하여 적어도 하나의 영상을 수집하는 단계를 포함한다. 또한, 이러한 디바이스는 적어도 하나의 측정 디바이스 또는 측정 방법과 결합될 수 있거나 결합될 수 없는 적어도 하나의 C 암(C-arm)일 수 있다.
본 발명의 또 다른 실시예는 표시 장치를 이용하여 일련의 영상에 대해서 기구 추적을 수행하는 방법에 관한 것이다. 본 실시예는 일련의 2D 데이터를 수집하는 단계를 포함할 수 있다. 일련의 2D 영상은 적어도 하나의 기구의 위치 및 방향 중 적어도 하나가 일련의 2D 영상 중 적어도 하나의 영상 내에 정확하게 표시될 수 있도록 조정될 수 있다. 이러한 방법은 일련의 2D 영상 중 적어도 하나의 영상을 현재 영상으로 선택하는 단계와 현재 영상에 대하여 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 계산하는 단계를 더 포함할 수 있다. 적어도 하나의 위치 및 방향은 나중에 표시되는 현재 영상 내로 투사될 수 있다.
본 발명의 다른 실시예는 이동하거나 이동 가능한 촬상 장치 ? 본 명세서에서 이 디바이스는 C 암임 ? 를 이용하여 일련의 2D 영상(예컨대 일련의 2D 투시 영상)을 수집하는 단계를 포함한다. 예컨대, 구상되는 방법은 적어도 하나의 기구의 위치 및 방향 중 적어도 하나가 일련의 영상 중 적어도 하나의 영상 내로 투사되는 표시부에서 일련의 영상 전체를 연속적으로 스크롤하는 단계를 포함한다. 또한, 적어도 하나의 현재 영상은 다음 영상으로 넘겨질(increment) 수 있는데, 현재 영상을 다음 영상으로 넘기는 단계는 소정의 알고리즘을 기초로 하여 수집된 다른 영상을 현재 영상으로 선택하는 단계와, 새로운 현재 영상에 대해 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 재계산하는 단계를 포함한다.
본 발명의 또 다른 실시예는 일련의 영상에 대해 기구 추적을 수행하기 위한 시스템 및 장치에 관한 것이다. 본 장치의 적어도 하나의 실시예는 이동하거나 이동 가능한 적어도 하나의 수집 장치와, 적어도 하나의 처리 장치 및 출력을 포함한다. 적어도 하나의 실시예에서, 수집 장치는 영상의 집합을 수집하게 된다. 처리 장치는 이동하거나 이동 가능한 적어도 하나의 수집 장치와 통신하고, 일련의 스크롤 영상을 생성하게 되고, 일련의 스크롤 영상 중 적어도 하나의 영상은 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 포함한다. 출력은 적어도 하나의 처리 장치와 통신하고, 일련의 스크롤 영상 중 적어도 하나를 표시하게 된다.
본 장치의 적어도 하나의 실시예에서, 이동 가능한 수집 장치는 적어도 하나의 C 암을 포함한다. 또한, 이동 가능한 수집 장치는 적어도 송신기 및 검출기 장치를 포함한다. 적어도 하나의 실시예에서, 송신기 및 검출기 장치는 영상 또는 영상들 내에 보이는 오브젝트에 대해서 수집 장치의 하나 이상의 구성요소의 상대 위치 및 위치 변화를 측정, 및/또는 촬상된 오브젝트 주변 영역에서 이동 가능한 수집 장치가 존재하는 시각 이전에, 그 동안에 또는 그 후에 촬상된 오브젝트 주변 영역 내에 존재하거나 도입될 수 있는 임의의 기구의 상대 위치 및/또는 위치의 변화를 측정하기 위해 사용될 수 있다.
본 발명의 어떤 실시예의 다음 상세한 설명 및 위의 개요는 첨부 도면과 연결하여 판독하면 보다 잘 이해할 수 있을 것이다. 본 발명을 설명하기 위해, 도면에 어떤 실시예가 도시되어 있다. 그러나, 본 발명은 첨부 도면에 도시한 장치 및 기구에 국한되지 않는다.
단지 설명을 목적으로 하여 다음 상세한 설명은 임의의 촬상 또는 표시 시스템, 머신, 장치 또는 디바이스 실시예를 참조한다. 그러나, 본 발명은 이 외의 디바이스 또는 촬상 시스템과 함께 사용될 수 있다.
본 발명의 적어도 하나의 실시예는 기구 추적에 관한 것이다. 보다 상세하게, 본 발명의 적어도 하나의 실시예는 표시 장치를 이용하여 일련의 스크롤 영상에 대한 기구 추적에 관한 것이다.
본 발명의 적어도 하나의 실시예는 기구 위치 및/또는 방향 정보를 사용자에게 전달하는 방법을 향상시켜 이러한 정보를 사용하고 이해하기에 보다 쉽게 만든다. 이러한 정보를 사용하고 이해하기에 보다 쉽게 만드는 것에 의해, 수술 작업 흐름의 효율성 및/또는 이용의 용이성을 향상시킬 수 있고, 제품 품질 인지를 향상시킬 수 있다. 하나 이상의 실시예에서 수술 기구의 위치 및/또는 방향을 사용자에게 전달하기 위해 애니메이션된 2D 데이터로부터 3D 정보를 인지할 수 있는 인간 본연의 능력을 이용한다. 이전의 설계에서는 상당히 숙련된 기술을 필요로 하는 방법으로 이러한 전달을 행하기 위해 정적 비 애니메이션 데이터(static, non-animated data)를 사용했다.
정적 데이터 집합이 애니메이션에 적합하다는 가정 하에, 움직임이 정적 데이터 집합에 도입되면 인간은 자연스럽게 3D 입체를 인지하게 된다. 본 발명의 하나 이상의 실시예는 관심의 대상이 되는 환자의 인체 주위를 회전하게 되는 이동 가능한 수집 장치(예를 들어, C 암이나 기타 이동 가능한 장치도 사용될 수 있음)를 이용하여 하나 이상의(즉, 일련의) 영상(예컨대, 2D 투시 영상)을 수집한다. 적어도 하나의 실시예에서, 이러한 수집된 일련의 영상 또는 데이터 집합은 애니메이션하기에 적합함을 이해해야 한다.
일 실시예는 이러한 데이터 집합을 이용하여 사용자에게 피드백을 제공하며, 여기서, 데이터 집합은 윈도우 또는 표시부에서 연속적으로 스크롤되고, 또한, 기구의 위치 및/또는 방향은 하나 이상의 영상 내로 투사된다. 일 실시예에서, 기구 위치 및/또는 방향은 각 영상 내로 순차적으로 투사된다. 그 기구의 위치 및/또는 방향을 포함하는 데이터 집합을 이렇게 스크롤함으로써, 사용자는 기구 위치 및/또는 방향 정보를 3D로 이해할 수 있게 된다. 이는 3D 입체를 인지하는 인간 본연의 능력을 이용하므로, 데이터를 이해하기 위해 새로운 기술을 습득해야 하는 필요성을 없앤다. 또한, 적어도 하나의 실시예는 하나 이상의 알려져 있는 컴퓨터 보조 수술 절차에서 필요로 하는 표시를 최적화하기 위해 직접적인 사용자 상호작용을 필요로하지 않는다.
적어도 하나의 실시예에서, 3D 모델 기구 표시에 필요한 바와 같이, 깊이로 인한 부분적으로 은닉되는 데이터가 없이 데이터 집합의 하나 이상의 영상 상에 기구 전체가 표시될 수 있다. 이는, 애니메이션으로, 사용자에게 깊이 인지가 자연스럽게 이루어지고, 위치 정보 전체가 단일의 시각화 윈도우 내에 표시될 수 있기 때문에 가능하다. 이것에 의해, 수술 작업 흐름의 이용의 용이성 및 제품 품질 인지가 향상된다. 적어도 하나의 실시예는 적어도 하나의 수집된 영상 및/또는 적어도 하나의 측정 장치 또는 측정 방법을 이용하여 적어도 하나의 기구의 위치 및 방향 중 적어도 하나를 수집하는 방법을 포함할 수 있다. 측정 방법은 적어도 하나의 수집된 영상에 대해서 적어도 하나의 기구의 위치 및/또는 방향 중 적어도 하나를 계산하는데 사용될 수 있다. 또한, 각 측정 장치는 EM 측정, 광학 측정, 레이저 측정, 인코더 피드백을 통한 것과 같은 물리적 측정을 포함하나 이에 국한되지 않는 하나 이상의 적합한 기술을 사용할 수 있다. 또한, 각 측정 방법은 팬톰 데이터를 사용하거나 사용하지 않을 수 있는 위치 예측 방법과, 전체 영상 기반이거나 전체 영상 기반이 아닐 수 있는 등록 방법을 포함하나 이에 국한되지 않는 하나 이상의 알고리즘 방법을 포함할 수 있다.
적어도 하나의 실시예에서, 현재 영상을 포함하는 적어도 하나의 수집된 영상 중 임의의, 몇몇의 또는 전체 영상에 대해 적어도 하나의 기구에 대한 위치 및/또는 방향 중 적어도 하나를 계산 또는 재계산하기 위해서, 현재 및 과거 특징 중 적어도 하나의 측정 데이터가 실제 소스 또는 시뮬레이션된 소스로부터 수집 및/또는 계산될 수 있다.
도 1은 본 발명의 적어도 하나의 일 실시예에 따라 사용되는 전체가 도면부호(100)로 지정되는 촬상 시스템, 디바이스, 머신 또는 장치를 도시한다. 시스템(100)은 X선 시스템, CT 시스템, EBT 시스템, 초음파 시스템, MR 시스템, EM(electromagnetic) 추적 시스템, 광 추적 시스템, 레이저 추적 시스템, 인코더 피드백 시스템, (팬톰 데이터를 사용하거나 사용하지 않을 수 있는) 알고리즘 위치 예측 시스템, (전체가 영상 기반이거나 영상 기반이 아닐 수 있는) 알고리즘 등록 시스템 또는 기타 촬상 또는 위치 측정 시스템을 포함하는 각종 시스템 또는 이들의 조합을 포함할 수 있다.
적어도 하나의 실시예에서, 시스템(100)은 C 암(110), 하나 이상의 X선 소스(120), 하나 이상의 X선 검출기(130), 하나 이상의 EM(electromagnetic) 센서(140), 적어도 하나의 EM 송신기(150), 영상 처리 컴퓨터 또는 장치(160), 추적기 모듈(170), 배치 장치(180) 및 출력(190)을 포함한다. 도시한 실시예에서, 추적기 모듈(170)은 적어도 EM 센서(140), EM 송신기(150) 및 영상 처리 컴퓨터(160)와 통신하는 것으로 도시되어 있다. 도 1은 또한 영상 처리 장치가 적어도 X선 검출기(130), 추적기 모듈(170) 및 출력부(190)와 통신하는 것으로 도시한다. 위에서 설명한 상호 접속은 도시되지 않았으나, 기타 상호 접속이 가능하다.
적어도 하나의 실시예에서, X선 소스(120) 및 X선 검출기(130)는 C 암(110)의 대향하는 쪽에 탑재되고, 여기서 X선 소스(120) 및 X선 검출기(130)는 C 암(110) 상에 이동 가능하게 탑재될 수 있다. 일 실시예에서, EM 센서(140)는 X선 검출기(130) 상에 탑재된다. EM 송신기(150)는 촬상되는 오브젝트(112)(즉, 환자) 위에 또는 그 근방에 배치된다. 이와 다르게, EM 송신기(150)는 X선 검출기(130) 상에 위치하고, EM 센서(140)는 촬상되는 오브젝트 혹은 환자(112) 위에 위치할 수 있다. 오브젝트 혹은 환자(112)는 배치 장치(180) 위에 혹은 그 안에 배치된다. 적어도 하나의 실시예에서, 배치 장치(180)는 테이블, 테이블 버키(table bucky), 수직 버키(vertical bucky), 지지 장치 또는 본 발명과 함께 사용되게 되는 기타 배치 장치를 포함한다.
적어도 하나의 실시예에서, C 암(110)은 예를 들어, 회전 방향, 종축 방향, 측면 방향, 횡축 방향, 주축 방향 및 "흔드는(wig-wag)" 방향(이러한 움직임의 적어도 하나의 예는 도 1에 점선으로 나타나 있음)을 포함하는 복수의 영상 획득 경로를 따라서 여러 가지 방향으로 이동되게 된다. 적어도 하나의 실시예에서, X선 소스(120) 및 검출기(130)는 C 암(110) 상에 이동 가능하게 (이러한 움직임은 점선으로 나타나 있음) 배치된다. 그러므로, X선 소스(120) 및 X선 검출기(130)와 함께 C 암(110)이 이동되어, 오브젝트(112)가 그 위에 또는 그 안에 배치된 배치 장치(180) 주위에 배치될 수 있다.
C 암(110)은 하나 이상의 X선(105)(또는 기타 에너지)이 오브젝트(112)를 조사하여 하나 이상의 영상을 생성할 수 있도록 오브젝트(112) 주위에 X선 소스(120) 및 검출기(130)를 배치하기 위해 사용된다. C 암(110)은 오브젝트(112) 주변에서 여러가지 스캔 각도로 이동 또는 재배치되어 복수의 영상을 획득할 수 있다. C 암(110)이 이동함에 따라, X선 검출기(130)와 오브젝트(112)간의 거리가 변할 수 있다. X선 소스(120)와 오브젝트(112)간의 거리도 변할 수 있다.
적어도 하나의 실시예에서, C 암(110) 상의 X선 소스(120) 및 검출기(130)는 예컨대 크로스 암 또는 회전 운동(cross-arm or orbital motion)으로 이동할 수 있다. 회전 운동에서, X선 소스(120) 및 검출기(130)는 원형 경로로 이동하지 않는 다. 회전 운동을 이용하는 단층상 재구성에서, X선 검출기(130)와 오브젝트(112) 간의 거리(및 소스(120)와 오브젝트(112)간의 거리)는 투사 영상의 수집 과정 중에 변할 수 있다.
적어도 하나의 실시예에서, 하나 이상의 투사 영상에 대해 X선 검출기(130)의 위치가 기록될 수 있다. 또한, 검출기(130)와 X선 소스(120) 사이의 거리가 결정될 수 있다. 검출기(130)의 위치와 검출기 대 오브젝트 거리(detector-to-object distance)를 이용하는 영상 재구성 과정 중에 확대 변화량이 결정되고 보상된다. EM 센서(140) 또는 기타 추적 장치는 검출기(130) 상에 배치될 수 있다. EM 송신기(150) 또는 기타 추적 장치는 오브젝트(112) 상에 배치될 수 있다. 센서(140) 및 송신기(150)로부터의 데이터는 검출기(130)의 궤도 중에 검출기(130)의 위치를 결정하기 위해 사용될 수 있다. 광학적 추적 장치 또는 기계적 추적 장치와 같은 기타 추적 장치는 시스템(100) 내의 하나 이상의 구성요소의 위치를 결정하기 위해 사용될 수 있다.
적어도 하나의 실시예에서, 송신기(150)는 센서(140)가 검출하는 자기장과 같은 신호를 브로드캐스트한다. 추적기 모듈(170)은 송신기(150)로부터의 데이터를 사용하여 오브젝트(112)에 대해서 검출기(130)의 위치를 결정할 수 있다. 위치의 차, 이에 따라 검출기(130)와 오브젝트(112)간의 거리는 획득한 X선 투사 영상에서 얻은 확대상에서의 차에 대응된다.
검출기(130)와 오브젝트(112)간의 거리 및/또는 소스(120)와 오브젝트(112)간의 거리를 변경함으로써, X선과 같은 비 평행한 빔을 방출하는 점 소스 또는 점 에 가까운 소스로부터 검출기 위로 투사되는 오브젝트의 확대상이 변경된다. X선 소스(120)의 FOV(field of view)가 일정하면, 오브젝트(112)가 X선 소스(120)에 접근함에 따라, 오브젝트(112)는 보다 큰 FOV를 차지해서 검출기(130) 상으로 보다 큰 영상을 투사한다. 일 실시예에서, 검출기 대 오브젝트의 거리는 시스템(100)의 가상 구(virtual isocenter)에 오브젝트(112)를 유지하기 위해 변경될 수 있다. 일 실시예에서, 검출기(130)의 FOV에서 가상의 구 내에 오브젝트(112)를 배치하기 위해 C 암(110) 및/또는 C 암(110) 상의 소스(120) 및/또는 검출기(130)는 임의의 평면에서 이동되거나 이동되지 않을 수 있다. 변하는 검출기 대 오브젝트 및/또는 소스 대 오브젝트 거리의 측정으로, 영상 처리기(160)가 거리 변화를 보상할 수 있게 되고, 이에 따라 확대 변화를 보상할 수 있게 된다. 추적기 모듈(170)은 EM 센서(140) 및 EM 송신기(150) 또는 기타 추적 장치로부터의 데이터를 사용하여 검출기 대 오브젝트 거리를 추적할 수 있다.
이와 다르게, EM 센서(140) 또는 EM 송신기(150)는, 소스(120)의 위치를 결정하기 위해 오브젝트 위의 EM 송신기(150) 또는 EM 센서(140)를 이용하는 소스(120)에 대해 탑재될 수 있다. 확대 변화량을 결정하고 설명하기 위해 X선 소스(120)의 위치는 소스 대 검출기의 거리를 이용하여 기록되어 사용될 수 있다. 추적기 모듈(170)은 예컨대 진단 또는 수술 절차 과정 중에 사용되는 기구 또는 도구의 위치 및/또는 방향을 모니터링할 수 있다.
추적기 모듈(170)은 예컨대 적어도 오브젝트(112), X선 검출기(130) 및/또는 X선 소스(120)의 위치를 모니터링한다. 추적기 모듈(170)은 적어도 오브젝트 (112), 소스(120) 및/또는 검출기(130)에 대해서 기준 좌표 시스템에서의 위치 데이터를 제공할 수 있다. 영상 처리기(160)는 2D 및/또는 3D 영상을 재구성하기 위해 영상 데이터를 처리할 때 위치 데이터를 사용할 수 있다. 위치 데이터는 예컨대 수술 네비게이션과 같은 기타 목적을 위해서도 사용될 수 있다. 일 실시예에서, 추적기 모듈(170)은 좌표 시스템 기준점 또는 중심축에 대해 (예컨대 연속 방식으로) 정의되는 좌표 시스템에 대해서 X선 검출기(130) 및 오브젝트(112)의 위치를 계산한다. 적어도 하나의 실시예에서, 영상 처리기(160)는 위치 데이터를 기초로 하여 오브젝트를 스캔하기 위해 X선 소스(120) 또는 소스 제어기로 제어 또는 트리거 명령을 제공한다.
적어도 하나의 실시예에서, 영상 처리기(160)는 C 암(110)이 이동함에 따라 검출기(130)로부터 일련의 영상 노출을 수집한다. 검출기(130)는 X선 소스(120)가 트리거될 때마다 영상 노출을 수신한다. 영상 처리기(160)는 영상 노출을 기준 데이터와 결합하여 예컨대 3D 입체 데이터 집합을 재구성한다. 3D 입체 데이터 집합은 오브젝트(112)로부터 슬라이스 혹은 관심의 대상이 되는 영역과 같은 영상을 생성하기 위해 사용될 수 있다. 예컨대, 영상 처리기(160)는 입체 데이터 집합으로부터 환자 척추, 무릎 또는 기타 영역의 시상도, 관상도 및/또는 횡단도를 생성할 수 있다. 영상 처리기(160)는 소프트웨어 및/또는 하드웨어로 구현될 수 있고, 여기서 영상 처리기(160)는 예컨대 범용 컴퓨터, 마이크로프로세서, 마이크로제어기 및/또는 애플리케이션 전용 집적 회로를 포함할 수 있다.
하나 이상의 실시예에서, 3D 영상 구성은 예컨대 부채꼴형 빔을 이용하여 오 브젝트(112)의 연속 슬라이스 또는 스캔 평면을 결합함으로써 형성될 수 있다. 또한, 오브젝트의 원추형 또는 면적 빔 투사상을 획득하기 위해 오브젝트(112) 주변에서 소스(120) 및 검출기(130)를 회전시킴으로써 3D 영상 재구성이 형성될 수 있다. 원추형 빔 투사에서, 오브젝트는 점 소스를 이용하여 조사될 수 있고 X선 플럭스(X-ray flux)는 검출기(130)에 의해 평면 상에서 측정될 수 있다. 오브젝트(112)로부터 검출기(130)까지의 거리 및 오브젝트(112)로부터 소스(120)까지의 거리는 영상 재구성을 위해 평행 투사를 결정하기 위해 사용될 수 있다.
또한, 필터링된 역 투영은 원추형 빔에서 평면을 필터링하고 역투영하는 것을 기초로 하여 3D 영상을 재구성하기 위해 사용될 수 있다. 필터링된 역 투영에서, 개개의 부채꼴형 빔 또는 원추형 빔 투영은 분석되고 결합되어 3D 재구성 영상을 형성한다. 필터링된 역 투영을 위해 새로운 좌표 시스템 내에서 분석하기 위해 부채꼴형 빔은 소스 검출기 회전 평면 밖으로 틸트된다. 투영 데이터는 거리를 기초로 하여 가중치가 부여되고 콘볼루션된다. 그 후, 콘볼루션되어 가중치가 부여된 투영상은 3D 재구성 그리드 상으로 역 투영되어 3D 영상을 재구성한다.
하나 이상의 영상이 재구성된 후에, 영상 처리기(160)는 하나 이상의 영상(들)을 출력부(190)로 전달할 수 있다. 출력부(190)는 예컨대 표시부, 프린터, 팩시밀리, 전자 우편, 저장 장치 또는 기타 매체를 포함할 수 있다. 또한, 적어도 하나의 실시예에서, 출력부(190)는 랩탑, PDA, 휴대 전화 또는 영상 처리기 컴퓨터(160)와 무선으로 통신하는 기타 장치를 포함할 수 있다. 영상은 출력부(190)를 통해 표시 및/또는 저장되어 기술자, 내과 의사, 외과 의사, 기타 건강 관리업자, 또는 보안 간부와 같은 사용자에 의해 사용된다.
동작에서, 예컨대, 환자의 중간 척추 영역이 시스템(100)에서 스캔될 수 있다. C 암(110)은 환자가 테이블(즉, 포지셔너(180)) 위에 배치되면 중척수의 전체 위치 스캔할 수 없다. 그러므로, C 암(110)은 측면으로부터 이동되어 배치될 수 있다. C 암(110)이 비환형 이동으로 이동됨에 따라, C 암(110)의 경로가 원형일 수 없기 때문에 척추는 스캔 영상 내에서 중앙에 있을 수 없다. 척추를 중앙(가령, 가상의 입체의 중심)에 유지하기 위해, 예컨대 C 암 지지부 상의 C 암(110)을 올리거나 낮춤으로써 C 암(110)이 이동될 수 있다. 척추는 이동되지 않지만 C 암(110)이 이동되기 때문에, 척추는 X선 소스(120)에 보다 가깝게 혹은 보다 멀리 위치할 수 있다. 그러므로, C 암(110)이 비원형 호로 움직이기 때문에, 시작부터 끝까지(예컨대, 첫번째 영상에서는 5개의 척추층부터 보다 확대된 마지막 영상에서는 3개의 척추 층까지) 서로 다른 확대상을 가질 수 있다.
스캔되는 오브젝트에 대한 검출기(130)의 위치는 예컨대 EM 송신기(150) 및 센서(140)를 이용하여 추적기 모듈(170)에 의해 측정되기 때문에 확대 변화량이 결정될 수 있다. 확대 변화랴은 중척수 영역의 3D 입체 영상의 재구성 과정 중에 고려될 수 있다. 영상(들)에 대한 재구성 계산에서, 표준 영상 재구성 알고리즘에서의 고정된 거리를 이용하지 않고, 가변 거리 값이 사용된다.
적어도 하나의 실시예에서, 송신기 및 검출기 장치는 영상 또는 영상들 내에서 보이는 오브젝트에 대하여 수집 장치의 하나 이상의 구성요소의 상대 위치 및/또는 위치의 변화를 측정하기 위해, 및/또는 촬상되는 오브젝트 주변의 영역에 이 동 가능한 수집 장치가 존재하기 이전에, 그 동안에 또는 그 후에 촬상되는 오브젝트의 주변 영역 내에 존재하거나 그로 도입될 수 있는 임의의 기구의 상대 위치 및/또는 위치의 변화를 측정하기 위해 사용될 수 있다.
전술한 바와 같이, 본 발명의 적어도 하나의 실시예에 의해, 기구 위치 및/또는 방향 정보를 사용자에게 전달하는 방법이 향상되어, 이러한 정보를 보다 쉽게 사용하고 이해할 수 있게 한다. 이러한 정보를 보다 쉽게 사용하고 이해하게 만듦으로써, 수술 작업 흐름의 사용의 효율성 및/또는 용이성이 향상될 수 있고, 제품 품질 인식이 향상될 수 있다. 적어도 하나 이상의 실시예는 수술 기구의 위치 및/또는 방향을 사용자에게 전달하기 위해, 애니메이션된 2D 데이터로부터 3D 정보를 인식하는 인간 본연의 능력을 사용한다.
데이터의 통계 집합에 움직임이 도입되면, 인간이 자연스럽게 3D 입체를 인식하게 된다. 본 발명의 하나 이상의 실시예는 관심의 대상인 환자의 인체 주위에서 회전하게 되는 이동 가능한 수집 장치(예컨대 C 암)를 이용하여 하나 이상(즉, 일련의)의 영상(예컨대 2D 투시 영상)을 수집한다. 적어도 하나의 실시예에서, 이러한 수집된 일련의 영상 또는 데이터 집합은 애니메이션하기에 적합하다.
하나의 실시예는 사용자 피드백을 제공하는데, 데이터 집합은 윈도우 또는 표시부에서 연속적으로 스크롤된다. 또한, 기구의 위치 및/또는 방향은 하나 이상의 영상 내로 투사될 수 있다. 일 실시예에서, 기구 위치 및/또는 방향은 각 영상 내로 순차적으로 투사될 수 있다. 그 기구의 위치 및/또는 방향을 포함하는 데이터 집합의 이러한 스크롤에 의해, 사용자는 기구 위치 및/또는 방향 정보를 3D로 이해할 수 있게 되어, 사용자가 3D 입체을 인식할 수 있는 본연의 능력을 이용할 수 있으므로, 데이터를 이해하기 위해 새로운 기술을 습득할 필요성이 없다. 또한, 적어도 하나의 실시예는, 알려져 있는 하나 이상의 컴퓨터 보조 수술 절차가 필요로 하는 표시를 최적화하기 위해서 직접적인 사용자 상호작용을 필요로 하지 않는다.
적어도 하나의 실시예에서, 애니메이션으로 사용자에게 깊이 인식이 자연스럽게 이루어지고, 3D 모델 기구 표시를 위해 필요한 깊이로 인한 부분적으로 은닉되는 데이터 없이 데이터 집합의 하나 이상의 영상에 기구 전체가 표시될 수 있고, 위치 정보가 단일의 시각화 윈도우 내에 완전히 포함될 수 있다. 이로써, 사용의 용이성, 수술 작업 흐름 및 제품 품질 인식이 향상된다.
도 2는 본 발명의 어떤 실시예에 따라 기구 추적을 수행하기 위해, 전체가 도면 부호(200)로 지정되어 있는 방법을 설명하는 하이 레벨 순서도를 도시한다. 적어도 하나의 실시예에서, 방법(200)은 촬상 시스템을 이용하는 이러한 기구 추적을 수행할 수 있다. 적어도 하나의 실시예에서, 방법(200)은 도 1에 도시한 것과 유사한 시스템 또는 장치를 이용하여 일련의 스크롤 영상에 대한 기구 추적을 수행하지만, 다른 촬상 시스템도 가능하다.
도 2는 적어도 하나의 영상을 수집하는 단계(210)를 포함한다. 적어도 하나의 실시예에서, 수집된 영상은 하나 이상의 2D 투시 영상일 수 있지만, 다른 영상도 가능하다. 적어도 하나의 실시예에서, 방법(200)은 관심의 대상이 되는 환자의 인체 주위 또는 근방에서 수집 장치를 회전시키는 단계와, C 암 및/또는 검출기 및 /또는 송신기 장치를 이용하여 하나 이상의 영상을 수집하는 단계를 포함할 수 있다. 방법(200)은 또한, 적어도 하나의 기구의 위치 및/또는 방향이 이러한 영상에서 정확하게 표시될 수 있도록 적어도 하나의 영상을 조정하는 단계(220)를 더 포함한다. 적어도 하나의 실시예에서, 단계(200)는 위치 측정 장치의 공간 내에서 영상 위치를 결정하기 위해 적어도 하나의 영상에 나타나는 오브젝트를 사용하거나 사용하지 않을 수 있는 다수의 C 암 및/또는 등록 기술로 이어지는 영상 와핑(image warping)에 매핑되는 영상 처리 기술을 포함할 수 있다.
본 발명의 실시예는 또한 현재 영상 내에 기구 위치 및/또는 방향을 계산하는 단계(230)를 더 포함하는데, 기구의 위치 및/또는 방향은 하나 이상의 영상 내로 투사될 수 있다. 방법(200)은 또한, 적어도 하나의 수집된(즉, 현재) 영상 및 적어도 하나의 기구의 위치/방향을 표시하는 단계(240)를 더 포함한다.
하나의 실시예에서, 기구 위치 및/또는 방향은 각 영상 내로 순차적으로 투사된다. 기구의 위치 및/또는 방향을 포함하는 이러한 스크롤 데이터 집합에 의해, 사용자는 기구 위치 및/또는 방향을 3D로 이해할 수 있게 되어, 3D 정보를 인지하는 인간 본연의 능력을 이용하므로, 데이터를 이해하기 위해 새로운 기술을 습득해야 하는 필요성이 없다. 또한, 적어도 하나의 실시예는 알려져 있는 하나 이상의 컴퓨터 보조 수술 절차가 필요로 하는 표시를 최적화하기 위해 직접적인 사용자 상호작용을 필요로 하지 않는다.
적어도 하나의 실시예에서, 애니메이션으로 사용자에게 깊이 인식이 자연스럽게 이루어지기 때문에 3D 모델 기구 표시를 위해 필요한 깊이로 인한 부분적으로 은닉되는 데이터 없이 데이터 집합의 하나 이상의 영상 상에 기구가 완전히 표시될 수 있고, 하나의 시각화 윈도우 내에 위치 정보가 완전히 표시될 수 있다. 이로써, 사용의 용이성, 수술 작업 흐름 및 제품 품질 인식이 향상된다.
도 3은 일련의 스크롤 영상(예컨대 3D 투시 영상)에 대해서 기구 추적을 수행하기 위해, 전체가 도면 부호(300)으로 표시되어 있는 방법을 설명하는 상세화된 순서도를 도시한다. 적어도 하나의 실시예에서, 기구 추적을 수행하는 이러한 방법은 도 1에 도시한 것과 유사한 촬상 시스템을 사용하지만, 다른 촬상 시스템도 가능하다. 적어도 하나의 실시예에서, 방법(300)은 관심의 대상이 되는 환자의 인체 주위에서 수집 장치(예컨대 C 암)를 회전시키는 단계(310)를 포함한다. 방법(300)은 또한, 이러한 C 암 및/또는 검출기 및/또는 송신기 장치를 이용하여 하나 이상의 2D 투시 화상을 수집하는 단계(320)를 포함한다.
적어도 하나의 실시예에서, 방법(300)은 하나 이상의 기구의 위치 및/또는 방향이 적어도 하나 이상의 영상 내에 정확하게 표시될 수 있도록 수집된 영상을 조정하는 단계(330)를 포함한다. 하나 이상의 실시예에서, 기구 위치 및/또는 방향은 각각의 이러한 수집된 영상 내에 정확하게 표시될 수 있다. 또한, 도 3은 단계(340, 350)를 포함한다. 단계(340)는 특정 영상을 현재 영상으로서 선택하는 단계를 포함한다. 단계(350)는 현재 영상 내에서 적어도 하나의 기구에 대한 위치 및/또는 방향을 계산하는 단계를 포함한다.
방법(300)은 또한 기구 위치 및/또는 방향을 현재 영상 내로 투사하는 단계(352)를 포함한다. 하나 이상의 실시예에서, 이러한 기구 위치 및/또는 방향은 하 나 이상의 일련의 영상 내로 투사될 수 있다. 도 3에는 또한 방법(300)이 단계(340) 및 단계(350)를 포함하는 것으로 도시되어 있다. 단계(340)는 특정 영상을 현재 영상으로 선택하는 단계를 포함한다. 단계(350)는 현재 영상 내에서 적어도 하나의 기구에 대한 위치 및/또는 방향을 계산하는 단계를 포함한다.
방법(300)은 또한 현재 영상 내로 기구 위치 및/또는 방향을 투사하는 단계(352)를 포함한다. 하나 이상의 실시예에서, 이러한 기구 위치 및/또는 방향은 일련의 영상 중 하나 이상의 영상 내로 투사될 수 있다. 적어도 하나의 실시예에서, 단계(350)는 현재 영상을 표시하는 단계를 포함한다. 적어도 하나의 실시예에서, 방법(300)은 현재 영상을 지연하는 단계(356) 및 다음 영상으로 넘기는 단계(358)를 각각 포함한다. 적어도 하나의 실시예에서, 현재 영상을 다음 영상으로 넘기는 단계는 수집된 다른 영상을 현재 영상으로 선택하기 위한 알고리즘을 사용하는 단계를 포함한다. 이러한 알고리즘은 영상 시퀀스 전체에 걸쳐서 현재의 이동 방향, 원하는 스크롤 속도 및 스크롤 해상도 및 다음 현재 영상을 결정하기 위해 현재 영상이 영상 시퀀스의 한쪽 끝인지 여부와 같은 각종 파라미터를 사용할 수 있다. 현재 영상을 다음 영상으로 넘긴 이후에, 기구 위치 및/또는 방향은 단계(350)에서 도시한 바와 같이, 새로운 현재 영상 내에서 재계산될 수 있다.
본 발명을 특정 실시예를 참조하여 설명하였으나, 당업자라면, 본 발명의 범주로부터 이탈하지 않고, 다양한 변경이 이루어질 있고 등가물로 대체될 수 있다는 것을 이해할 수 있을 것이다. 또한, 본 발명의 교시에 비추어 본 발명의 범주로부터 이탈하지 않고 특정 환경 또는 물질에 맞도록 다수의 수정예가 이루어질 수 있 다. 그러므로, 본 발명은 개시한 특정 실시예에 국한된 것이 아니라, 청구의 범위의 범주 내에 오는 모든 실시예를 포함할 것이다.
기구가 3D 모델 기구 표시에 필요한 깊이로 인한 부분적으로 은닉되는 데이터가 없이 데이터 집합의 하나 이상의 영상 상에 기구 전체가 표시될 수 있다. 애니메이션으로, 깊이 인지가 자연스럽게 사용자에게 이루어지고, 위치 정보 전체가 단일의 시각화 윈도우 내에 표시될 수 있기 때문에 가능하다. 이것에 의해, 수술 작업 흐름의 이용의 용이성 및 인식되는 제품 품질이 향상된다.
Claims (10)
- 영상에 대해 기구 추적(instrument tracking)을 수행하는 방법으로서,수집 장치를 이용하여 복수의 2D 정적 영상들을 수집하는 단계와,상기 복수의 2D 정적 영상들 각각에 대하여 적어도 하나의 기구의 위치(position), 방향(orientation) 또는 상기 위치 및 상기 방향 모두를 계산하는 단계와,상기 적어도 하나의 기구의 상기 위치, 상기 방향, 또는 상기 위치 및 상기 방향 모두의 3D 정보가 애니메이션 과정을 통해 생성되도록 상기 복수의 2D 정적 영상들을 순차적인 방식으로, 자동적으로 표시하기 위해 상기 적어도 하나의 기구를 각각의 2D 정적 영상에 투사하는 단계를 포함하는기구 추적 방법.
- 제 1 항에 있어서,복수의 2D 투시 영상들(2D fluoroscopic images)을 수집하는 단계를 포함하는기구 추적 방법.
- 제 2 항에 있어서,디스플레이를 사용하여 상기 복수의 수집된 영상들을 계속적으로 스크롤하는 기구 추적 방법.
- 제 1 항에 있어서,상기 적어도 하나의 영상의 상기 위치, 상기 방향, 또는 상기 위치 및 상기 방향 모두가 정확하게 표시될 수 있도록 상기 적어도 하나의 수집된 영상을 조정하는 단계를 포함하는기구 추적 방법.
- 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,상기 수집 장치는 촬상 장치에 결합되는 C 암(C-arm)을 포함하는기구 추적 방법.
- 삭제
- 삭제
- 삭제
- 일련의 정적 영상들에 대해 기구 추적을 수행하기 위한 장치로서,이동하며, 2D 정적 영상들의 집합을 수집하는 적어도 하나의 수집 장치와,적어도 하나의 상기 이동 가능한 수집 장치와 통신하고, 상기 2D 정적 영상들 각각에 대하여 적어도 하나의 기구의 위치, 방향 또는 상기 위치 및 상기 방향 모두를 계산하고 일련의 스크롤 영상(a scrolling series of images)을 생성하기 위해 상기 2D 정적 영상들 각각에 상기 적어도 하나의 기구를 투사하는 적어도 하나의 처리 장치와,상기 적어도 하나의 처리 장치와 통신하고, 상기 적어도 하나의 기구의 상기 위치, 상기 방향, 또는 상기 위치 및 상기 방향 모두의 3D 정보가 애니메이션 과정을 통해 생성되도록 상기 일련의 스크롤 영상을 순차적인 방식으로, 자동적으로 표시하는 출력부를 포함하는기구 추적 장치.
- 제 9 항에 있어서,이동하는 상기 수집 장치는 적어도 하나의 C 암을 포함하는기구 추적 장치.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US10/771,074 US8126224B2 (en) | 2004-02-03 | 2004-02-03 | Method and apparatus for instrument tracking on a scrolling series of 2D fluoroscopic images |
US10/771,074 | 2004-02-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050078995A KR20050078995A (ko) | 2005-08-08 |
KR101156306B1 true KR101156306B1 (ko) | 2012-06-13 |
Family
ID=34679359
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020050009355A KR101156306B1 (ko) | 2004-02-03 | 2005-02-02 | 기구 추적 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (1) | US8126224B2 (ko) |
EP (1) | EP1561423A1 (ko) |
JP (1) | JP4648018B2 (ko) |
KR (1) | KR101156306B1 (ko) |
CN (1) | CN1650805A (ko) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8150495B2 (en) | 2003-08-11 | 2012-04-03 | Veran Medical Technologies, Inc. | Bodily sealants and methods and apparatus for image-guided delivery of same |
US7398116B2 (en) | 2003-08-11 | 2008-07-08 | Veran Medical Technologies, Inc. | Methods, apparatuses, and systems useful in conducting image guided interventions |
WO2007029139A2 (en) * | 2005-09-08 | 2007-03-15 | Philips Intellectual Property & Standards Gmbh | Magnetic tracking system for an imaging system |
WO2007033206A2 (en) | 2005-09-13 | 2007-03-22 | Veran Medical Technologies, Inc. | Apparatus and method for image guided accuracy verification |
US20070066881A1 (en) | 2005-09-13 | 2007-03-22 | Edwards Jerome R | Apparatus and method for image guided accuracy verification |
US8024026B2 (en) | 2007-05-31 | 2011-09-20 | General Electric Company | Dynamic reference method and system for use with surgical procedures |
US10398393B2 (en) | 2007-10-02 | 2019-09-03 | Stryker European Holdings I, Llc | Dynamic reference method and system for interventional procedures |
US8315690B2 (en) * | 2007-10-02 | 2012-11-20 | General Electric Company | Dynamic reference method and system for interventional procedures |
US8737708B2 (en) | 2009-05-13 | 2014-05-27 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
US8503745B2 (en) * | 2009-05-13 | 2013-08-06 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
US8238631B2 (en) | 2009-05-13 | 2012-08-07 | Medtronic Navigation, Inc. | System and method for automatic registration between an image and a subject |
RU2556783C2 (ru) * | 2009-12-09 | 2015-07-20 | Конинклейке Филипс Электроникс Н.В. | Комбинация ультразвуковой и рентгеновской систем |
US8694075B2 (en) * | 2009-12-21 | 2014-04-08 | General Electric Company | Intra-operative registration for navigated surgical procedures |
US8781186B2 (en) | 2010-05-04 | 2014-07-15 | Pathfinder Therapeutics, Inc. | System and method for abdominal surface matching using pseudo-features |
CN102985009B (zh) * | 2010-06-28 | 2016-08-17 | 皇家飞利浦电子股份有限公司 | 医学断层合成系统 |
US20130303887A1 (en) | 2010-08-20 | 2013-11-14 | Veran Medical Technologies, Inc. | Apparatus and method for four dimensional soft tissue navigation |
CN102204846B (zh) * | 2011-04-22 | 2012-10-31 | 重庆伟渡医疗设备股份有限公司 | 一种医学成像部件位置改变后对其快速精确定标的方法 |
US8848868B2 (en) * | 2011-08-24 | 2014-09-30 | Albert Davydov | X-ray system and method of using thereof |
US9138165B2 (en) | 2012-02-22 | 2015-09-22 | Veran Medical Technologies, Inc. | Systems, methods and devices for forming respiratory-gated point cloud for four dimensional soft tissue navigation |
EP2831841B1 (en) * | 2012-06-20 | 2016-05-18 | Koninklijke Philips N.V. | Multicamera tracking |
CN104470458B (zh) * | 2012-07-17 | 2017-06-16 | 皇家飞利浦有限公司 | 用于手术仪器引导的增强现实成像系统 |
JP6469336B2 (ja) * | 2013-02-12 | 2019-02-13 | キヤノンメディカルシステムズ株式会社 | X線診断装置、及びx線診断装置の制御方法 |
US20150305612A1 (en) | 2014-04-23 | 2015-10-29 | Mark Hunter | Apparatuses and methods for registering a real-time image feed from an imaging device to a steerable catheter |
US20150305650A1 (en) | 2014-04-23 | 2015-10-29 | Mark Hunter | Apparatuses and methods for endobronchial navigation to and confirmation of the location of a target tissue and percutaneous interception of the target tissue |
US11051886B2 (en) | 2016-09-27 | 2021-07-06 | Covidien Lp | Systems and methods for performing a surgical navigation procedure |
US10893842B2 (en) | 2018-02-08 | 2021-01-19 | Covidien Lp | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target |
WO2020154448A1 (en) | 2019-01-23 | 2020-07-30 | Eloupes, Inc. | Aligning pre-operative scan images to real-time operative images for a mediated-reality view of a surgical site |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020092190A (ko) * | 2001-06-01 | 2002-12-11 | 가부시키가이샤 시마쓰세사쿠쇼 | 컴퓨터 단층촬영 장치 및 방법 |
JP2003284059A (ja) * | 2002-03-27 | 2003-10-03 | Toshiba Lighting & Technology Corp | カメラ画像による移動物体追跡装置およびカメラパラメータのキャリブレーション方法並びに装置 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9025431D0 (en) | 1990-11-22 | 1991-01-09 | Advanced Tech Lab | Three dimensional ultrasonic imaging |
US5823958A (en) * | 1990-11-26 | 1998-10-20 | Truppe; Michael | System and method for displaying a structural data image in real-time correlation with moveable body |
US5528259A (en) | 1992-10-29 | 1996-06-18 | International Business Machines Corporation | Method and system for multi-dimensional scrolling of displayed data collections in a data processing system |
US5431161A (en) * | 1993-04-15 | 1995-07-11 | Adac Laboratories | Method and apparatus for information acquistion, processing, and display within a medical camera system |
WO1997032277A1 (en) * | 1996-02-29 | 1997-09-04 | Acuson Corporation | Multiple ultrasound image registration system, method and transducer |
US6975900B2 (en) * | 1997-07-31 | 2005-12-13 | Case Western Reserve University | Systems and methods for determining a surface geometry |
US5951475A (en) * | 1997-09-25 | 1999-09-14 | International Business Machines Corporation | Methods and apparatus for registering CT-scan data to multiple fluoroscopic images |
US5923727A (en) * | 1997-09-30 | 1999-07-13 | Siemens Corporate Research, Inc. | Method and apparatus for calibrating an intra-operative X-ray system |
US6511426B1 (en) * | 1998-06-02 | 2003-01-28 | Acuson Corporation | Medical diagnostic ultrasound system and method for versatile processing |
DE19849764B4 (de) * | 1998-10-28 | 2004-10-21 | Siemens Ag | Bildgebende Diagnostikeinrichtung |
DE19917867B4 (de) * | 1999-04-20 | 2005-04-21 | Brainlab Ag | Verfahren und Vorrichtung zur Bildunterstützung bei der Behandlung von Behandlungszielen mit Integration von Röntgenerfassung und Navigationssystem |
EP1173105B1 (en) * | 1999-04-22 | 2004-10-27 | Medtronic Surgical Navigation Technologies | Apparatus and method for image guided surgery |
US20010051881A1 (en) * | 1999-12-22 | 2001-12-13 | Aaron G. Filler | System, method and article of manufacture for managing a medical services network |
DE19962666A1 (de) * | 1999-12-23 | 2001-07-05 | Siemens Ag | Verfahren zum Rekonstruieren von 3D-Bilddaten bezüglich eines interessierenden Volumens eines Untersuchungsobjekts |
DE10004764A1 (de) * | 2000-02-03 | 2001-08-09 | Philips Corp Intellectual Pty | Verfahren zur Positionsbestimmung eines medizinischen Instruments |
US6484049B1 (en) * | 2000-04-28 | 2002-11-19 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
US6666579B2 (en) | 2000-12-28 | 2003-12-23 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for obtaining and displaying computed tomography images using a fluoroscopy imaging system |
KR100747138B1 (ko) * | 2001-02-07 | 2007-08-07 | 아오 테크놀러지 아게 | 뼈 엑스-레이 이미지의 3차원 영상 구현 방법 |
DE10114099B4 (de) * | 2001-03-22 | 2005-06-16 | Siemens Ag | Verfahren zum Detektieren der dreidimensionalen Position eines in einen Körperbereich eingeführten medizinischen Untersuchungsinstruments, insbesondere eines in ein Gefäß eingeführten Katheters |
CA2348135A1 (en) * | 2001-05-17 | 2002-11-17 | Cedara Software Corp. | 3-d navigation for x-ray imaging system |
US6990220B2 (en) * | 2001-06-14 | 2006-01-24 | Igo Technologies Inc. | Apparatuses and methods for surgical navigation |
DE10154799B4 (de) * | 2001-11-08 | 2005-08-18 | Siemens Ag | Bildgebendes medizinisches Diagnosegerät und Verfahren zum Betrieb eines Magnetresonanzgeräts in der Medizin |
DE10215808B4 (de) * | 2002-04-10 | 2005-02-24 | Siemens Ag | Verfahren zur Registrierung für navigationsgeführte Eingriffe |
US7660623B2 (en) * | 2003-01-30 | 2010-02-09 | Medtronic Navigation, Inc. | Six degree of freedom alignment display for medical procedures |
US7542791B2 (en) * | 2003-01-30 | 2009-06-02 | Medtronic Navigation, Inc. | Method and apparatus for preplanning a surgical procedure |
DE102004025685A1 (de) * | 2004-05-26 | 2005-12-22 | Siemens Ag | Verfahren zur Bilderzeugung mit einer bildgebenden Modalität |
-
2004
- 2004-02-03 US US10/771,074 patent/US8126224B2/en not_active Expired - Fee Related
-
2005
- 2005-02-01 EP EP05250550A patent/EP1561423A1/en not_active Ceased
- 2005-02-02 JP JP2005025864A patent/JP4648018B2/ja active Active
- 2005-02-02 KR KR1020050009355A patent/KR101156306B1/ko active IP Right Grant
- 2005-02-03 CN CNA2005100064767A patent/CN1650805A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020092190A (ko) * | 2001-06-01 | 2002-12-11 | 가부시키가이샤 시마쓰세사쿠쇼 | 컴퓨터 단층촬영 장치 및 방법 |
JP2003284059A (ja) * | 2002-03-27 | 2003-10-03 | Toshiba Lighting & Technology Corp | カメラ画像による移動物体追跡装置およびカメラパラメータのキャリブレーション方法並びに装置 |
Also Published As
Publication number | Publication date |
---|---|
EP1561423A1 (en) | 2005-08-10 |
JP4648018B2 (ja) | 2011-03-09 |
KR20050078995A (ko) | 2005-08-08 |
US8126224B2 (en) | 2012-02-28 |
CN1650805A (zh) | 2005-08-10 |
US20050169510A1 (en) | 2005-08-04 |
JP2005218867A (ja) | 2005-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101156306B1 (ko) | 기구 추적 방법 및 장치 | |
US7369695B2 (en) | Method and apparatus for metal artifact reduction in 3D X-ray image reconstruction using artifact spatial information | |
JP5328137B2 (ja) | 用具又は埋植物の表現を表示するユーザ・インタフェイス・システム | |
KR100962787B1 (ko) | 의료 진단용 영상 시스템, 엑스레이 영상 수집 방법 및 엑스레이 장치 | |
JP5609112B2 (ja) | 三次元画像データの作成方法 | |
US7436927B2 (en) | Imaging apparatus and method for the operation thereof | |
US7317819B2 (en) | Apparatus and method for three-dimensional imaging | |
JP5209979B2 (ja) | 無較正の幾何学的構成における三次元撮像の方法及びシステム | |
JP4537129B2 (ja) | トモシンセシス用途における対象物を走査するためのシステム | |
KR20100098055A (ko) | 영상유도수술시스템 및 그 제어방법 | |
CN102427767B (zh) | 用于计算机断层摄影中低剂量介入引导的数据采集和可视化模式 | |
US20050084147A1 (en) | Method and apparatus for image reconstruction with projection images acquired in a non-circular arc | |
US11380006B2 (en) | Size measurement using angle-constrained radiographic imaging | |
CN110267594B (zh) | C型臂计算机断层摄影中的等中心 | |
JP5384293B2 (ja) | X線ct装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20150522 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20160526 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170529 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180516 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190515 Year of fee payment: 8 |