KR20210013018A - 영상에서의 아티팩트 감소를 위한 시스템 및 방법 - Google Patents

영상에서의 아티팩트 감소를 위한 시스템 및 방법 Download PDF

Info

Publication number
KR20210013018A
KR20210013018A KR1020207029372A KR20207029372A KR20210013018A KR 20210013018 A KR20210013018 A KR 20210013018A KR 1020207029372 A KR1020207029372 A KR 1020207029372A KR 20207029372 A KR20207029372 A KR 20207029372A KR 20210013018 A KR20210013018 A KR 20210013018A
Authority
KR
South Korea
Prior art keywords
projection
projections
acquired
reconstruction
block
Prior art date
Application number
KR1020207029372A
Other languages
English (en)
Inventor
패트릭 에이. 헬름
제프리 에이치. 시우어덴
알리 유니에리
워치치 즈바이제스키
사오촨 쟝
조셉 더블유. 스테이맨
Original Assignee
메드트로닉 내비게이션, 인코퍼레이티드
더 존스 홉킨스 유니버시티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 메드트로닉 내비게이션, 인코퍼레이티드, 더 존스 홉킨스 유니버시티 filed Critical 메드트로닉 내비게이션, 인코퍼레이티드
Publication of KR20210013018A publication Critical patent/KR20210013018A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/005Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5282Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to scatter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • G06T5/002
    • G06T5/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/448Computed tomography involving metal artefacts, streaking artefacts, beam hardening or photon starvation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Human Computer Interaction (AREA)

Abstract

왜곡 또는 선택된 감쇠 특징에 기초할 수 있는 선택된 아티팩트가 재구성되는 영상으로부터 감소되거나 제거될 수 있다. 다양한 아티팩트들은 시야 내의 금속 물체의 존재로 인해 발생할 수 있다. 금속 물체는 식별될 수 있고, 재구성을 생성하는 데 사용되는 데이터로부터 제거될 수 있다.

Description

영상에서의 아티팩트 감소를 위한 시스템 및 방법
관련 출원의 교차 참조
본 출원은 2019년 4월 4일에 출원된 미국 특허출원 제16/375,292호와, 2018년 4월 6일에 출원된 미국 특허 임시출원 제62/654,038호의 우선권을 주장한다. 상기 출원의 전체 개시내용은 본원에 참고로 포함된다.
정부 라이선스 권리
본 발명은 National Institutes of Health가 공여한 R01-EB-017226 아래에 정부 지원으로 만들어졌다. 정부는 본 발명에 대해 특정한 권리를 갖는다.
기술분야
본 개시는 영상 디스플레이, 특히 아티팩트나 왜곡의 정정 또는 감소에 관한 것이다.
본 섹션은 반드시 종래 기술인 것은 아닌 본 개시에 관련된 배경 정보를 제공한다.
환자와 같은 선택된 대상의 영상 데이터 또는 영상들을 획득할 때, 다양한 아티팩트 또는 왜곡이 발생할 수 있다. 예를 들어, 대상의 X선 기반 영상을 획득할 때, 특정 물질이 피사체의 조직과 같은 다른 물질과 불균형되거나 상이한 방식으로 X선을 방해할 수 있다. 예를 들어, 금속 또는 고분자 물체는 피사체의 주변 조직과 상이한 방식으로 X선을 감쇠 및/또는 산란시킬 수 있다. 비-조직 재료의 이러한 효과는 획득된 영상 데이터로 생성된 영상에 왜곡 또는 아티팩트를 야기할 수 있다. 왜곡은 피사체의 2차원 투영에 기초하여, 3차원 재구성과 같은 재구성 후에 증폭되거나 또는 쉽게 관찰될 수 있다. 따라서, 최소한의 왜곡이나 왜곡이 없는 보기를 위한 영상들을 만들려는 시도에서 왜곡의 정정이 선택될 수 있다.
본 섹션은 본 개시의 전반적인 요약을 제공하지만, 그것이 본 개시의 전체 범위 또는 그의 모든 특징의 포괄적 개시인 것은 아니다.
피사체는 선택된 영상 시스템으로 촬영될 수 있다. 다양한 실시예들에서, 피사체의 영상 데이터를 획득하는 데 X선 영상 시스템이 사용될 수 있다. X선 영상 데이터는 하나 이상의 2차원 투영을 생성하거나 획득하는, X선 시스템과 같은 다양한 기술에 따라 획득될 수 있다. 2차원 투영은 3차원 재구성을 생성하는 데 사용될 수 있다. 따라서, 3차원 재구성을 만들기 위해, 하나 이상의 2차원 투영들이 예를 들어 시퀀스로, 획득될 수 있다.
피사체의 영상 데이터를 획득하는 단계에서, X선은 X선이 X선 소스로부터 검출기까지 통과하는 재료에 의해 감쇠된다. 소스로부터 방출된 X선은 평균 주위의 또는 선택된 경계 내의 스펙트럼 내에 존재할 수 있다. 따라서, 예를 들어 120 keV(킬로 전자볼트)와 같은 선택된 에너지로 X선 소스가 방출하는 X선은 실제로 이러한 양의 범위 또는 스펙트럼에서 방출되는 X선일 수 있다. 따라서, 상기 감쇠는 상기 특정 X선 에너지들 각각에 대해 상이할 수 있다.
또한, 피사체의 연조직 또는 경조직과 같은 유사한 물질은 유사한 방식으로 X선을 감쇠시킬 수 있다. 금속 물체(예를 들어, 이식물, 기구 등)와 같은 다양한 비-조직 물질은 실질적으로 상이한 방식으로 X선을 감쇠시킬 수 있다. 예를 들어, 비-조직 물질은 X선을 감쇠시키키고/시키거나, X선 소스 또는 검출기의 시야(FOV: field of view) 내의 물체로부터 멀어지도록 X선을 반사 또는 산란시킬 수 있다. 비조직 물질은 금속 이외의 물체 또는 물질, 예를 들어 고분자, 복합 재료 등을 포함할 수 있는 것으로 이해된다.
2D 투영과 같은 영상은 FOV 내의 다양한 비-조직 물체들로 인한 복수의 효과들(예를 들어, 왜곡)을 포함할 수 있다. 왜곡은 복수의 투영들에 기초하여 재구성을 만들 때 누적되거나 확대되는 아티팩트들을 생성할 수 있다. 따라서, 상기 왜곡 및 투영을 제거하고 시야 내의 선택된 구성요소들 또는 물체들의 공지된 효과들을 포함함으로써 결함 부분이 복원되고, 이후 재구성하는 데 사용될 수 있다. 재구성은 재구성의 왜곡 및 아티팩트들을 감소시키거나 제거하기 위해 X선 시스템 내의 기지의 컴포넌트들의 사실들에 기초한 정보를 포함할 수 있다.
적용가능한 다른 영역들은 본원에 제공된 설명으로부터 명백해질 것이다. 본 요약의 설명 및 특정한 예는 단지 예시를 위한 것이며, 본 개시의 범위를 제한하는 것으로 의도되지 않는다.
본원에 설명된 도면들은 단지 선택된 실시예들을 예시하기 위한 것일 뿐 모든 가능한 구현들을 예시하기 위한 것은 아니고, 본 개시의 범위를 제한하는 것으로 의도되지 않는다.
도 1은 선택적 영상 시스템 및 내비게이션 시스템을 포함하는 수술실의 환경을 도시한 도면이다.
도 2는 피시체에 이식물을 삽입하기 위한 기구의 개략도이다.
도 3은 피사체 내의 이식물의 개략도이다.
도 4는 영상의 아티팩트 또는 왜곡을 감소시키기 위한 프로세스의 흐름도이다.
도 5는 복원된 및 복원되지 않은 투영을 도시한 도면이다.
도 6은 복원된 및 복원되지 않은 재구성을 도시한 도면이다.
대응하는 도면부호들은 여러 도면들에 걸쳐 대응하는 부분들을 나타낸다.
이제, 첨부된 도면들을 참조하여 예시적 실시예들이 보다 완전하게 설명될 것이다.
도 1 및 도 2를 참조하면, 수술실을 도시한 도면이 도시되어 있다. 수술실은 수술기구 세트를 포함할 수 있다. 다양한 수술에 사용될 수 있는 내비게이션 시스템(10)이 수술기구 세트에 사용하기 위해 배치될 수 있다. 내비게이션 시스템(10)은 환자(14)와 같은 피사체에 대하여, 이식물 또는 기구(본원에서 설명되는 바와 같은)와 같은 물체의 위치를 추적하는 데 사용될 수 있다. 또한, 내비게이션 시스템(10)은 가이드 와이어, 관절경 시스템, 정형외과용 이식물, 척추 이식물, 심부 뇌 자극(DBS: deep brain stimulation) 리드, 심장 박동 리드, 절제 기구 등을 포함하는 임의의 유형의 기구, 이식물, 또는 전달 시스템을 탐색하는 데 사용될 수 있음에 유의해야 한다. 또한, 기구는 신체의 임의의 영역을 탐색하거나 매핑하기 위해 사용될 수 있다. 내비게이션 시스템(10) 및 다양한 추적되는 물체들은 일반적으로 최소 침습 또는 절개 수술과 같은 임의의 적절한 수술에서 사용될 수 있다.
수술실은 영상 시스템(12)을 더 포함할 수 있다. 영상 시스템(12)은 다양한 실시예들에서 내비게이션 시스템(10)과 인터페이스할 수 있다. 영상 시스템(12)은 환자(14)의 수술 전, 수술 중, 수술 후, 또는 실시간의 영상 데이터를 획득하는 데 사용될 수 있다. 다양한 실시예들에서, 영상 시스템(12)은, 수술의 선택된 부분의 진행을 결정 및 판단하기 위해 선택된 시간 동안 영상들을 획득하는 데에 사용될 수 있다. 통상의 기술자는 임의의 적절한 피사체가 촬영될 수 있고, 임의의 적절한 수술이 피사체에 대해 수행될 수 있음을 이해할 것이다. 피사체(14)는 환자일 수 있고, 수술은 장치의 이식(예를 들어, 나사, 리드 등)과 같은 외과 수술일 수 있다.
도 1에 예시적으로 도시된 바와 같이, 영상 시스템(12)은 미국 콜로라도주 루이빌에 사업장을 둔 메드트로닉 내비게이션(Medtronic Navigation Inc.)이 판매하는 O-암(O-arm®) 영상 장치를 포함한다. 영상 장치(12)는 영상 캡처부(22)를 둘러싸는 일반적으로 환형인 갠트리 하우징(20)을 가질 수 있다. 영상 캡처부(22)는 X선 소스 또는 방출부(26)와, 일반적으로 또는 실질적으로 갠트리 하우징(20) 내에서 서로 가능한 180도로 위치되는 X선 수신부 또는 영상 수신부(28)(피사체(14)를 지난 X선을 검출하기 위한 검출기로도 지칭됨)를 포함할 수 있다. X선 방출부(26)는 X선의 원추형 빔(26x)을 방출하거나 생성할 수 있다. 원추형 빔(26x) 내의 X선은 일반적으로 척추골(124)와 같은 피사체(14)의 적어도 일부를 포함할 수 있는 시야를 포함할 것이다. 검출기(28)는 피사체(14)를 통과한 X선을 검출할 수 있다. 그러나, X선은 원추형 빔(26x) 내의 피사체 또는 물체로 인하여 감쇠 및/또는 산란될 수 있다. 또한, 검출기는 2차원(2D) 영상 데이터 또는 투영들을 검출 및/또는 생성할 수 있다.
다양한 실시예들에서, X선 소스 또는 방출부(26) 및 X선 수신 또는 영상 수신부(28)는 일반적으로 환형인 갠트리 하우징(20) 내의 트랙(도시되지 않음)에 상대적인, 회전자(도시되지 않음) 상에 장착될 수 있다. 영상 캡처부(22)은 영상 획득 동안 360도 회전하도록 동작될 수 있다. 영상 캡처부(22)는 중심점 또는 축 주위에서 회전할 수 있어서, 환자(14)의 영상 데이터가 여러 방향 또는 여러 평면에서 획득될 수 있게 한다. 영상 시스템(12)은 미국 특허 제7,188,998호, 제7,108,421호, 제7,106,825호, 제7,001,045호, 제6,940,941호에 개시된 영상 시스템을 포함하고, 이들의 전문이 본원에 참고로 포함된다. 그러나, 영상 시스템(12)은 환자(14)에 대한 3차원 뷰를 생성할 수도 있는 C-아암 형광투시 영상 시스템, 컴퓨터단층촬영(CT: computer topography) 영상 시스템 등을 포함하는 다른 영상 시스템을 포함하거나 그것으로 교체될 수도 있다.
영상 캡처부(22)의 위치는 영상 장치(12)의 임의의 다른 부분에 대해 정확하게 알려질 수 있다. 또한, 본원에서 설명되는 바와 같이, 영상 캡처부(22)의 위치에 대한 정확한 지식은 추적 시스템(29)과 함께 사용되어 영상 캡처부(22)의 위치 및 추적되는 환자(14)와 같은 피사체에 대한 영상 데이터를 판단하는 데 사용될 수 있다. 예를 들어, 환자 추적 장치(48)는 환자(14)를 추적하기 위해 환자(14) 위에 배치될 수 있다.
추적 시스템(29)은 내비게이션 시스템(10)과 연관되거나 그에 포함되는 다양한 부분들을 포함할 수 있다. 추적 시스템(29)은 또한 광학 로컬라이저(40)를 포함하는 광학 추적 시스템 및/또는 EM 로컬라이저(42)를 포함할 수 있는 전자기(EM: electromagnetic) 추적 시스템을 포함하는, 복수의 유형의 추적 시스템을 포함할 수 있다. 광학 로컬라이저(40)는 카메라를 이용하여 추적 가능한 부분들(추적 장치)를 "보거나" 광학적으로 추적할 수 있다. EM 로컬라이저(42)는 필드를 생성할 수 있고, 추적가능한 부분(예를 들어, EM 추적 장치)은 필드 내의 다른 추적 장치에 대한 위치를 판단하기 위해 필드를 감지할 수 있다. 본원에서 더 설명된 것들을 포함하는 다양한 추적 장치들은 추적 시스템(29)과 함께 추적될 수 있고, 그 정보는 내비게이션 시스템(10)에 의해 사용되어 물체의 위치가 표시될 수 있다. 간단하게는, 환자 추적 장치(48), 영상 장치 추적 장치(50) 및 기구 추적 장치(52)와 같은 추적 장치는, 광학 로컬라이저(40) 및/또는 EM 로컬라이저(42)를 포함하는, 적절한 추적 시스템(29)과 함께 수술실의 선택된 부분들이 추적되도록 한다.
추적 장치들(48, 50, 52) 중 어느 것이든 각각의 추적 장치들을 추적하는 데 사용되는 추적 로컬라이저에 따라 광학 또는 EM 추적 장치들, 또는 둘 모두일 수 있음이 이해될 것이다. 또한, 임의의 적절한 추적 시스템이 내비게이션 시스템(10)과 함께 사용될 수 있음이 이해될 것이다. 대안적인 추적 시스템은 레이더 추적 시스템, 음향 추적 시스템, 초음파 추적 시스템 등을 포함할 수 있다.
예시적인 EM 추적 시스템은 미국 콜로라도주 루이빌에 사업장을 둔 메드트로닉 내비게이션(Medtronic Navigation Inc.)이 판매하는 STEALTHSTATION® Navigation System™(내비게이션 시스템)을 포함할 수 있다. 예시적인 추적 시스템은 또한 23012년 2월 4일에 등록된 미국 특허 제8,644,907호(Method and Apparatus For Surgical Navigation), 2010년 7월 6일에 등록된 미국 특허 제7,751,865호(Method and Apparatus For Surgical Navigation), 1999년 6월 22일에 등록된 미국 특허 제5,913,820호(Position Location System), 1997년 1월 14일에 등록된 미국 특허 5,592,939호(Method and System for Navigating a Catheter Probe)에 개시되어 있으며 그 전문이 본원에 참고로 포함된다.
또한, EM 추적 시스템의 경우, EM 로컬라이저(42)에 의해 발생된 EM 필드의 왜곡을 차폐하거나 보상하기 위해 차폐 또는 왜곡 보상 시스템을 제공할 필요가 있을 수 있다. 예시적인 차폐 시스템은 2010년 9월 14일에 등록된 미국 특허 제7,797,032호(Method and system for navigating a catheter probe in the presence of field-influencing objects)와, 2004년 6월 8일에 등록된 미국 특허 제6,747,539호(Patient-shielding and coil system)의 시스템들을 포함하며, 이들의 전체 내용은 본원에 참고로 포함된다. 왜곡 보상 시스템은 2003년 10월 21일에 등록된 미국 특허 제6,636,757호(Method and apparatus for electromagnetic navigation of a surgical probe near a metal object)에 개시된 시스템들을 포함할 수 있으며, 그 전체 내용이 본원에 참조로 포함된다.
EM 추적 시스템을 이용하여, EM 로컬라이저(42) 및 다양한 추적 장치들은 EM 컨트롤러(44)를 통해 통신할 수 있다. EM 컨트롤러는 다양한 증폭기, 필터, 전기적 절연, 및 다른 시스템을 포함할 수 있다. EM 컨트롤러(44)는 또한 추적을 위해 EM 필드를 방출 또는 수신하도록 로컬라이저(42)의 코일을 제어할 수 있다. 그러나, 2002년 11월 5일에 등록되고 본원에 참조로 포함되는 미국 특허 제6,474,341호(Surgical Communication Power System)에 개시된 것과 같은 무선 통신 채널은 EM 컨트롤러(44)에 직접 연결되는 것과는 반대로 사용될 수 있다.
추적 시스템은 미국 콜로라도주 루이빌에 사업장을 둔 메드트로닉 내비게이션(Medtronic Navigation Inc.)이 판매하는 광학 로컬라이저(40)와 유사한 광학 로컬라이저를 갖는, STEALTHSTATION® TRIA®, TREON®, 및/또는 S7™ 내비게이션 시스템을 포함하는, 임의의 적절한 추적 시스템이거나, 이를 포함할 수 있음이 이해될 것이다. 광학 추적 시스템은 2011년 8월 30일에 등록된 미국 특허 제8,010,177호(Intraoperative Image Registration)와, 2001년 5월 22일에 등록된 미국 특허 제6,235,038호(System For Translation Of Electromagnetic And Optical Localization Systems)에 개시된 시스템을 포함할 수도 있으며, 그 전체 내용이 본원에 참조로 포함된다.다른 대안적인 추적 시스템은 1999년 11월 9일에 Wittkampf et al.에게 특허 허여된 미국 특허 제5,983,126호(Catheter Location System and Method)에 개시되며, 이는 본원에 참고로 포함된다. 다른 추적 시스템들은 음향, 복사, 레이더 등의 추적 또는 내비게이션 시스템들을 포함한다.
영상 시스템(12)은 지지 하우징 또는 카트(56)를 포함할 수 있다. 영상 시스템(12)은 카트(56) 내에 하우징될 수 있는 별도의 영상 프로세싱 유닛(58)을 더 포함할 수 있다. 내비게이션 시스템(10)은 내비게이션 메모리(62)와 통신하거나 이를 포함할 수 있는 내비게이션 프로세싱 유닛(60)을 포함할 수 있다. 내비게이션 부재(62)는 랜덤 액세스 메모리, 자기 매체 드라이브 등을 포함하는 임의의 적절한 비일시적 메모리를 포함할 수 있다. 또한, 내비게이션 메모리(62)는 내비게이션 프로세싱 유닛(60)과 통합될 수도 있고, 또는 내비게이션 프로세싱 유닛(60)으로부터 원격으로 떨어져 있을 수도 있다. 내비게이션 프로세싱 유닛(60)은 영상 시스템(12)으로부터 영상 데이터를 포함하는 정보를, 그리고 각각의 추적 장치(48 내지 52) 및 로컬라이저(40 내지 42)를 포함하는 추적 시스템(29)으로부터 추적 정보를 수신할 수 있다. 영상 데이터는 워크스테이션 또는 다른 컴퓨터 시스템(68)의 디스플레이 장치(66) 상에서 영상(64)으로 표시될 수 있다.
워크스테이션(68)은 키보드(70)와 같은 적절한 입력 장치를 포함할 수 있다. 마우스, 풋 페달 등과 같은 다른 적절한 입력 장치들이 포함될 수 있음이 이해될 것이다. 또한, 전술한 바와 같이, 다양한 프로세싱 유닛이 워크스테이션 또는 컴퓨터 시스템(68) 내에 통합될 수 있다. 따라서, 시스템에 대한 명령을 포함하여 다양한 입력이 사용자(54)에 의해 사용될 수 있다. 또한, 내비게이션 부재(62) 또는 다른 적절한 및/또는 유사한 메모리가 선택된 프로세싱 유닛들에 의한 실행을 위한 영상 데이터 및/또는 명령들과 같은 정보를 전송하거나 또는 재호출하기 위해 사용될 수 있다. 다양한 프로세싱 유닛들, 컴퓨터들, 및/또는 워크스테이션들은 내부 또는 로컬 메모리 및 프로세싱 유닛들을 포함할 수 있다. 상기 프로세싱 유닛들은 칩 상에서 태스크들을 수행하기 위한 명령들을 실행하는 일반적인 컴퓨터들인 중앙 처리 장치들을 포함할 수 있다. 프로세싱 유닛들은 또한 주문형 반도체(ASIC: application specific integrated circuits)와 같은 특수 회로일 수 있다. 따라서, 프로세싱 유닛들은 정보를 수신하고 그 정보에 기초하여 저장되거나 수신되는 명령들을 실행하는 장치들일 수 있다. 또한, 메모리는 랜덤 액세스 메모리, 휘발성 또는 비-휘발성 메모리 등과 같은 일시적인 그리고 비-일시적인 메모리 시스템들을 포함할 수 있다.
영상 프로세싱 유닛(58)은 영상 시스템(12)으로부터의 영상 데이터를 처리할 수 있고, 선택된 프로세싱 이전 또는 이후에 영상 데이터를 내비게이션 프로세싱 유닛(60)으로 전송할 수 있다. 그러나, 영상 시스템(12)이 임의의 영상 처리를 수행할 필요는 없고, 영상 데이터를 내비게이션 프로세싱 유닛(60)으로 영상 데이터를 바로 전송할 수 있음도 이해될 것이다. 따라서, 내비게이션 시스템(10)은 시스템 설계에 기초하여 하나 또는 다수의 메모리 시스템들에 액세스할 수 있는 하나 또는 다수의 프로세싱 센터들 또는 유닛들을 포함하거나 이들과 함께 동작할 수 있다. 또한, 본원에서 설명되는 바와 같이, 처리된 영상 데이터는 디스플레이 장치(66) 또는 임의의 적절한 디스플레이 장치 상에 표시될 수 있다. 따라서, 표시되는 영상들이 내비게이션 시스템(10)과 함께 표시될 필요는 없다.
환자(14)는 수술대와 같은 지지체(72) 상에 고정될 수 있지만, 수술대(72)에 고정되어야만 할 필요는 없다. 수술대(72)는 복수의 스트랩(74)을 포함할 수 있다. 스트랩(74)은 환자(14) 주위에 고정되어 수술대(72)에 대해 환자(14)를 고정시킬 수 있다. 수술 테이블(72) 상의 정적 위치에 환자(14)를 위치시키기 위해 다양한 장치들이 사용될 수 있다. 이러한 환자를 위치시키는 장치의 예는 2003년 4월 1일에 출원되고, 미국 특허출원 공개 제2004/0199072호로 공개된, 공동 양수된 미국 특허출원 제10/405,068호(An Integrated Electromagnetic Navigation And Patient Positioning Device)에 기재되어 있고, 이는 본원에 참조로 포함된다. 다른 공지된 장치는 메이필드(Mayfield®) 클램프를 포함할 수 있다.
또한, 영상 시스템(12)에 대한 환자(14)의 위치(3차원 위치 및 방향을 포함)는 환자 추적 장치(48) 및 영상 시스템 추적 장치(50)와 함께 내비게이션 시스템(10)에 의해 결정될 수 있다. 본원에서 설명되는 바와 같이, 환자(14)에 대한(3차원 위치 및 방향을 포함하는) 위치는 적어도 부분적으로 환자(14)에 대해 획득된 영상을 이용하여 결정될 수 있다. 이에 따라, 영상 시스템(12)에 대한 환자(14)의 위치(3차원 위치 및 방향 포함)가 결정될 수 있다. O-암(O-arm®)과 같은 영상 시스템(12)은 그의 위치를 알 수 있고 약 10 마이크론 이내의 동일한 위치로 재배치될 수 있다. 이것은 영상 시스템(12)의 실질적으로 정밀한 배치 및 영상 장치(12)의 위치의 정밀한 결정을 가능하게 한다. 영상 부분(22)의 정확한 위치 설정은 미국 특허 제7,188,998호, 제7,108,421호, 제7,106,825호, 제7,001,045호, 제6,940,941호에 더 설명되며, 이들 모두 본원에 참조로 포함된다. 일반적으로, 환자(14)에 대해 영상 데이터의 상대적인 위치를 결정하도록 선택될 수 있다. 예를 들어, 환자에 대한 상대적인 방향을 포함하는 위치가 환자(14)의 일부분의 위치를 결정하기 위해 사용될 수 있다.
피사체 또는 환자 공간 및 영상 공간은 환자 공간 내의 일치하는 점들 또는 기준 점들을 식별함으로써 그리고 영상 공간에서 관련된 또는 동일한 지점들을 식별함으로써 정합될 수 있다. 메드트로닉 내비게이션(Medtronic Navigation Inc.)이 판매하는 O-암(O-arm®) 영상 장치와 같은 영상 장치(12)는 정확하고 알려진 위치에서 영상 데이터를 생성하는 데 사용될 수 있다. 이는 영상 데이터의 획득시에 영상 대이터가 환자(14)에 대해 자동적으로 또는 "원천적으로" 정합되게 할 수 있다. 본질적으로, 환자(14)의 위치는 환자(14)에 대해 영상 시스템(12)을 정확하게 위치시키기 때문에 영상 시스템(12)에 대해서 정확하게 알려져 있다. 이것은 영상 시스템(12)의 알려져 있는 정확한 위치 때문에, 영상 데이터 내의 지점들이 환자(14)의 지점들에 대해 알려질 수 있게 한다.
대안적으로, 환자(14) 상의 기준점과 영상 데이터 내의 기준점들을 일치시킴으로써 수동 또는 자동 정합이 발생할 수 있다. 환자 공간에 영상 공간을 정합하는 것은 환자 공간과 영상 공간 사이에 대응하는 맵(translation map)이 생성되게 한다. 다양한 실시예들에 따르면, 정합은 영상 공간 및 환자 공간에서 실질적으로 동일한 지점들을 결정함으로써 발생할 수 있다. 동일한 지점은 해부학적 기준점들 또는 이식된 기준점들을 포함할 수 있다. 예시적인 정합 기술은 2017년 8월 22일에 등록된 미국 특허출원 제9,737,235호에서 개시되며, 이는 본원에 참조로 포함된다.
다양한 실시예들에서, 내비게이션 시스템(10)은 수술을 수행하는 것을 보조하기 위해 사용될 수 있다. 그러나, 내비게이션 시스템(10)을 꼭 필요로 하지는 않음을 이해해야 한다. 다양한 실시예들에서, 수술은 내비게이션 시스템 없이 진행될 수 있다. 그러나, 수술은 선택된 수술을 수행하는데 사용될 수 있는 영상 시스템(12)을 단독으로 또는 내비게이션 시스템(10)과 조합하여 사용할 수 있다. 선택된 수술은 영상 시스템(12)으로 생성되거나 획득된 영상 데이터를 사용할 수 있다. 또한, 영상 시스템(12)은 수술 도중과 같이 수술에서의 상이한 시간에 영상 데이터를 획득하는데 사용될 수 있다. 본원에서 설명되는 바와 같이, 영상 데이터는 수술 부분의 확인을 포함하는 다양한 목적을 위해 수술의 선택된 부분에 후속하여 환자(14)에 대해 획득될 수 있다.
도 1을 계속 참조하면, 영상 시스템(12)은 피사체(14)의 투영과 같은 영상 데이터를 획득할 수 있다. 투영은 2D 영상으로 표시될 수 있는 2D 투영을 포함할 수 있다. 영상 시스템(12)은 또한 환자(14)의 3차원(3D) 영상을 생성하거나 재구성하는 데 사용될 수 있다. 환자(14)는 영상 시스템(12)에 대해 배치되어 영상 시스템(12)이 환자(14)의 영상 데이터를 획득할 수 있게 한다. 3D 영상 데이터를 생성하기 위해, 영상 데이터는 환자(14)에 대해 복수의 뷰 또는 위치로부터 획득될 수 있다. 위치는 피사체(14)에 대한 검출기(28)의 상대적 이동에 의한 각도로 구분되는 것과 같은, 환자(14) 주변의 위치일 수 있다. 각각의 위치는 환자(14)에 대하여 각도 또는 세타(θ) 위치로 정의되거나 또는 지칭될 수 있다. 환자(14)의 3D 영상 또는 영상 데이터는 단독으로 또는 다른 정보와 함께 사용되어 환자(14) 또는 적절한 피사체에 대한 수술을 수행하는 것을 보조할 수 있다. 그러나, 환자(14)의 영상 데이터(3D 영상 데이터를 포함하여)를 획득하기 위해 자기 공명 영상, 컴퓨터 단층 촬영, 형광투시 등을 포함하는 임의의 적절한 영상 시스템이 사용될 수 있음을 이해해야 할 것이다.
전술한 바와 같이, 영상 시스템(12)은 메드트로닉 내비게이션(Medtronic Navigation Inc.)이 판매하는 O-암(O-arm®) 영상 시스템과 같은 임의의 적절한 영상 시스템을 포함할 수 있다. O-암(O-arm®) 영상 시스템은 2차원 투영을 포함할 수 있는 피사체(14)의 영상 데이터를 획득함으로써 피사체(14)의 영상을 획득할 수 있다. 투영은 소스(26)로부터 X선을 방출함으로써 획득되고, 검출기(28)에서 검출된다. 투영들은 디스플레이 장치(66) 상에 2차원 영상들로서 표시될 수 있고/있거나 디스플레이 장치(66)에 표시하기 위해 영상(64)과 같이 3차원 영상으로 재구성될 수 있다. 영상, 예를 들어, 재구성된 영상(64)은, X선 소스(26)로부터 방출되고 검출기(28)에서 검출된 X선(26x)의 원추형 내에서와 같이, 영상 시스템의 시야 내에 다양한 물체들이 위치되는 경우, 아티팩트 또는 왜곡을 포함할 수 있다. 이러한 왜곡은 재구성된 영상에서의 공간 왜곡을 지칭할 뿐만 아니라, 검출기에 의해 기록된 신호의 왜곡, 예를 들어 에너지 의존성 검출기 응답과 관련된 폴리에너지(polyenergetic) 효과(빔 경화), 및 "제로(zero)" 데이터 또는 전자적 노이즈 기여(광자 결핍 효과)를 포함한다. 피사체(14)가 촬영될 때 수술용 모터(126)와 같은 기구로 구동되거나 이동될 수 있는 척추경 나사(120)와 같은 다양한 비-조직 요소 또는 재료가 X선 원추형(26x) 내에 있으면, 왜곡이 발생될 수 있다. 예를 들어, 다양한 실시예들에 따르면, 척추경 나사(120)는 환자(14) 내의 척추골(124)에 이식될 수 있다. 본원에서 단일 또는 복수의 척추골에 대한 설명은 단지 예시적일 뿐이며, 일반적으로 수술은 임의의 선택된 개수의 적절한 척추골에서 수행될 수 있음을 이해해야 한다. 척추경 나사(120)는 본 기술분야에서 일반적으로 이해되는 바와 같이, 외과적 수술 동안 척추골(124)에 위치될 수 있다. 그 후, 영상 시스템(12)은 피사체(14)에 척추경 나사(120)를 배치한 후에, 그러나 연결 봉, 또는 수술의 다른 선택된 부분을 배치하는 것과 같이 수술이 완료되기 전에, 영상을 획득하는 데 사용될 수 있다. 척추경 나사(120)가 위치한 동안에 피사체(14)를 촬영하는 것은, 영상 투영 시, 디스플레이 장치(66)에 표시하기 위한 영상 재구성(64) 내에 추가적인 왜곡 및/또는 아티팩트가 발생되게 할 수 있다. 따라서, 다양한 실시예들에 따르면, 내비게이션 프로세싱 유닛(60) 및/또는 영상 프로세싱 유닛(58)이나 다른 적절한 프로세서에 의해 실행되는 명령들에 의해, 아티팩트를 제거하고/제거하거나 왜곡되지 않은 영상을 표시하기 위해 아티팩트를 고려하는 것을 지원하는 프로세스가 수행될 수 있다.
영상들에서 왜곡을 제거하거나 고려하는 프로세스는, 이식물 또는 기구를 포함하는 대상과 같이 선택된 물체로 인한 투영에서의 아티팩트 또는 왜곡을 고려하거나 판단하는 단계로 개시될 수 있다. 이어서, 선택된 물체는 재구성 전에 투영들로 대체될 수 있는데, 대체는 다양한 복원 방법에 따라 수행될 수 있다. 프로세스는 내비게이션 메모리(62) 또는 다른 적절한 메모리와 같은 메모리에 저장된 알고리즘 및 명령들로 개발되어, 앞서 설명된 것들을 포함하여 하나 이상의 프로세서들 또는 프로세싱 유닛들에 의해 실행될 수 있다. 그 다음, 교정된 또는 아티팩트가 감소된 재구성이 디스플레이 장치(66) 상에 영상(64)으로 표시될 수 있다.
전술한 바와 같이, 영상은 디스플레이 장치(66) 상에 생성되고 보여질 수 있다. 획득된 영상들은 선택된 시간에, O-암(O-arm®) 영상 시스템을 포함할 수 있는 영상 시스템(12)을 이용하여 획득된다. 예를 들어, 영상들은 피사체(14)에 대한 수술 과정과 같은 선택된 수술 동안에 획득될 수 있다. 다양한 실시예들에서, 수술 과정은 환자(14) 내로 이식물을 위치시키는 것을 포함할 수 있다. 이식물은 하나 이상의 척추골(124)에 위치되는 척추경 나사(120), 또는 둘 이상의 척추경 나사(120)를 포함할 수 있다. 도 3에 예시적으로 도시된 바와 같이, 제1 및 제2 척추경 나사(120a 및 120b)가 중심선(140)에 대해 척추골(124)에 대해 상대적으로 위치된 것으로 개략적으로 도시되어 있다. 중심선(140)은 영상(64)과 같은 영상에 대해 디스플레이 장치(66)에서 표시될 수 있거나, 또는 환자(14)의 뒤쪽 부분에서부터 앞쪽 부분까지 연장되는 중심선의 예일 수 있다. 척추경 나사(120)를 척추골(124)과 같은 환자(14) 부위에 위치시킨 후에, 영상 시스템(12)은 척추경 나사(120a 및 120b)가 그 안에 위치되어 있는 척추골(124)을 포함하는 환자(14)의 영상 데이터를 획득하는 데 사용될 수 있다. 도 3에 도시된 바와 같이, 척추경 나사(120)는 사용자(54)가 드릴 모터 또는 공구(126)를 사용하는 것과 같은 임의의 적절한 방식으로 척추골(124) 내에 위치될 수 있다.
환자 내에 척추경 나사(120)를 위치시킨 후에 피사체(14)의 영상 데이터를 획득하는 단계가 임의의 적절한 목적을 위해, 예를 들어, 선택되거나 미리 결정된 위치에 척추경 나사(120)를 위치시키거나 그 위치를 확인하기 위해 수행될 수 있다. 영상 데이터 획득 동안, 특히 척추경 나사(120a, 120b)가 배치된 후, 영상(64)의 왜곡이나 아티팩트는 척추골(124) 내의 척추경 나사(120)의 정확한 위치를 확인하는 것을 방해하거나 지연시킬 수 있다. 따라서, 본원에서 더 설명되는 바와 같이, 영상 시스템(12)을 이용하여 피사체(14)에 대해 획득된 하나 이상의 투영에 기초한 3차원 재구성과 같은 재구성을 포함할 수 있는 영상(64)을 생성하기 전에, 획득된 영상 데이터의 왜곡 또는 오류를 감소 및/또는 정정하기 위해, 선택된 프로세스가 사용될 수 있다.
도 4를 참조하면, 프로세스 또는 흐름도(200)는 사용자(54)가 보기 위한 피사체(14)의 영상(64)과 같은 투영 및 후속하는 재구성 내의 아티팩트들을 제거하는 효율적인 프로세스를 예시한다. 프로세스(200)는 아티팩트 없이 사용자(54)에게 보이기 위한 그리고/또는 선택된 물체의 선명하거나 높은 콘트라스트 엣지를 보이기 위한 영상(64)을 생성하는 데에 계산 시간이 더 짧고/짧거나 필요한 리소스들이 더 적도록 효율적이게 한다. 다양한 실시예들에서, 선택된 물체는 척추골(124)에 위치된 척추경 나사(120)를 포함할 수 있다. 다양한 실시예들에서, 본원에서 설명되는 바와 같이, 프로세스(200)를 이용하면, 계산 시간은 복원된 물체들을 갖는 재구성을 생성하기 위해 약 2분 미만을 포함하여, 약 3분 미만까지 낮아질 수 있다. 아티팩트들의 제거는 척추경 나사(120)와 같은 선택된 물체와, 척추골(124)과 같은 주변 영역들 사이에 보다 정밀하고 명확한 영상 및/또는 구별을 가능하게 할 수 있다. 척추골(124) 내의 척추경 나사(120)의 위치 설정은 예시적이고, 임의의 상이한 재료들 사이에서 콘트라스트 및/또는 왜곡이 일어날 수 있음을 이해할 것이다. 따라서, 본원에서 척추골(124)에 대한 척추경 나사(120)에 대한 설명은 특별히 달리 식별되지 않는 한 예시적인 것이다.
또한, 척추경 나사(120)는 척추골(124)의 영상 데이터를 생성하는 X선에 대하여 왜곡 또는 아티팩트를 발생시키는 방식으로 X선 영상 데이터를 생성할 때 X선에 영향을 주는, 하나 이상의 선택된 물질(예를 들어, 금속 또는 금속 합금)로 형성될 수 있는 것으로 이해된다. 따라서, 프로세스(200)는 디스플레이 장치(66)를 이용하여 표시하기 위한 영상(64)을 생성할 때 영상 데이터 내의 아티팩트들을 제거 또는 고려하는 데에 사용될 수 있다. 또한, 척추경 나사(120) 또는 다른 선택된 물체는 복수의 재료로 형성되거나 이들을 포함할 수 있는 것으로 이해된다.
도 4를 계속 참조하면, 프로세스(200)는 척추골(124)에 척추경 나사(120)를 위치시키는 것을 포함하는 외과적 수술과 같이, 선택된 수술 단독으로 및/또는 그 일부로 수행될 수 있는 영상 분석 및/또는 재구성 프로세스(200)인 것으로 이해된다. 따라서, 프로세스(200)는 전술한 영상 프로세싱 유닛(58)과 같은 선택된 프로세서 또는 프로세서 시스템에 의해 실행될 수 있는 알고리즘일 수도 있거나, 또는 알고리즘 부분들을 포함할 수도 있다. 그러나, 디스플레이 장치(66)에 표시하기 위한 영상을 생성하는 프로세스(200)를 실행하는 데 임의의 적절한 처리 시스템이 사용될 수 있음이 이해된다.
프로세스(200)는 척추경 나사(120)와 같은 선택된 물체를 배치하는 것을 포함하는 외과적 수술과 같은 다른 수술에 통합될 수 있다. 따라서, 선택된 수술들은 블록(204)에서 수술을 시작하는 단계, 및 그 후 블록(206)에서 수술을 위한 피사체를 준비하는 단계를 포함할 수 있다. 블록(126)에서 수술을 위한 대상을 준비하는 단계는 피사체(14) 내에 척추경 나사(120) 또는 다른 적절한 이식물을 위한 위치를 미리 결정하거나 선택하는 단계를 포함할 수 있다. 이러한 사전 계획 또는 사전 결정은 피사체(14)의 수술 전 영상 데이터를 획득하는 단계 및 척추골(124) 내에 척추경 나사(120)를 위한 위치를 계획하는 단계를 포함할 수 있다. 또한, 피사체를 준비하는 단계는 피사체(14)를 지지체(72) 위에서 수술실 내로 이동시키는 단계, 피사체(14)의 절개부를 형성하는 단계, 피사체(14)에 대해 기구를 위치시키는 단계, 또는 다른 적절한 수술 단계를 포함할 수 있다.
블록(206)에서 수술을 위한 피사체를 준비한 후에, 블록(208)에서 피사체 내에 선택된 물체를 배치하는 단계가 수행될 수 있다. 전술한 바와 같이, 예시적인 실시예들은 도 2에 도시된 것처럼 척추경 나사(120)를 척추골(124)에 위치시키는 단계를 포함할 수 있다. 척추경 나사(120)는 미국 미네소타주에 사업장을 둔 메드트로닉(Medtronic, Inc.)이 판매하는 CD Horizon® Solara® 또는 Legacy® 척추 나사 또는 척추경 나사와 같은 임의의 적절한 척추경 나사일 수 있다.
도 5를 참조하면, 척추경 나사(120)는 척추골 내에 위치되는 제1 자루부(120') 및/또는 자루에 대해 이동가능한 머리 또는 짐발 머리 부분과 같은 제2 부분(120'')과 같은 선택된 부분을 포함할 수 있다. 그러나, 척추경 나사(120)는 환자 내에 배치된 임의의 적절한 유형의 척추경 나사일 수 있음이 이해된다. 또한, 블록(208)에 위치된 선택된 물체는 척추경 나사일 필요는 없지만, 피사체(14) 또는 임의의 다른 적절한 부분에 대해 위치된 임의의 적절한 유형의 물체일 수 있음이 이해될 것이다. 일반적으로, 척추경 나사(120)와 같은 선택된 물체는 척추골(124)(예를 들어, 뼈 조직)과 같은 배치되는 부분과는 상이한 재료(예를 들어, 금속)로 형성된다.
블록(208)에서 선택된 물체를 위치시킨 후에, 프로세스(200)는 사용자(54)에게 보이기 위한 선택된 또는 적절한 재구성을 생성하는 것을 보조하는 데 사용될 수 있다. 프로세스(200)는 블록(220)에서 선택된 물체들을 포함하는 투영의 획득을 포함하거나 그로부터 시작할 수 있다. 블록(220)에서 투영의 획득은 피사체(14)의 2차원 투영의 획득을 포함할 수 있다. 획득은 실시간 영상 데이터 획득, 영상 데이터의 재호출, 또는 이들의 조합일 수 있다. 도 5를 계속 참조하면, 획득되는 투영은 부분들 (a), (b), 및 (c)에 도시된 것들을 포함할 수 있다. 투영은 척추골(124) 및 척추경 나사(120)를 포함할 수 있다.
도 5에 도시된 바와 같이, 척추경 나사(120)는 개략적으로 또는 예시적으로 도시되어 있다. 척추경 나사(120)는 자루(120'), 머리(120'') 및 다른 부분과 같은 다양한 특징부를 포함할 수 있다. 자루(120')는 척추골(124)과 고정 또는 연결시키는 나사산 또는 다른 특징부를 포함할 수 있다. 머리(120'')는 U자 형상과 같은 추가적인 특징부들을 포함할 수 있고, 자루(120')에 대해 움직일 수 있다. 그 다음, 머리(120'')는 고정나사 또는 너트와 같은 선택된 방식으로 자루(120')에 고정될 수 있다. 자루(120')와 머리(120'')는 동일한 재료나, 2개의 상이한 금속 합금 또는 하나의 금속과 하나의 고분자와 같은 상이한 물질로 형성될 수 있는 것으로 이해된다.
그럼에도 불구하고, 척추경 나사(120)는 척추골(124)에 위치될 수 있고, 영상들은 척추골(124) 및 그 내부에 위치된 나사(120)에 대해 획득될 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 하나 이상의 척추경 나사(120)가 척추골(124)과 같은 환자 내에 위치될 수 있다. 도 5에 도시된 바와 같이, 척추골(124p)의 영상이 도시되고, 척추경 나사(120p)의 영상이 도시된다. 투영은 시야에서 영상 시스템(12)을 이용하여 생성된 2차원 투영을 포함할 수 있다. 그러나, 예를 들어, 약 360개의 투영을 포함하는 복수의 투영이 척추골(124) 및 척추경 나사(120)를 포함하는 시야에서 피사체(14)에 대해 생성될 수 있음이 이해된다. 그러나, 프로세스(200)에서는 임의의 적절한 선택된 개수의 투영이 획득되고 포함될 수 있다. 예를 들어, (b)에서의 투영은 세타(θ) = 180도(°)로 표시되며, 따라서, 원점 또는 시작점으로부터 180°에서 획득된 투영일 수 있다.
본원에서 더 설명되는 바와 같이, 투영은 도 5에 도시된 바와 같이 임의의 적절한 방식으로 획득되는 복수의 투영들을 포함할 수 있다. 예를 들어, 전술한 바와 같이, 프로세스(200)는 영상 프로세싱 유닛(58)을 이용하여 실행될 수 있다. 따라서, 영상 시스템(12)은 투영을 포함하는 영상 데이터를 생성 또는 수집할 수 있고, 이들은 영상 프로세싱 유닛(58)을 이용하여 즉시 처리될 수 있다. 대안적으로, 또는 그에 부가하여, 영상 데이터는 영상 시스템(12)을 이용하여 획득된 다음, 선택된 프로세싱 유닛들 또는 프로세서들에 전달 또는 전송될 수 있다. 예를 들어, 영상 데이터는, 유선 또는 무선 프로토콜과 같은 연결을 이용하여 전송되고, 선택된 메모리 매체(예를 들어, CD-ROM, 휘발성 또는 비휘발성 메모리 등)에 저장될 수 있다. 따라서, 통상의 기술자는, 블록(220)에서 투영을 획득하는 단계가 영상 시스템(12)을 동작시켜 영상 데이터를 획득하는 단계, 선택된 메모리로부터 영상 데이터를 수신하는 단계, 또는 영상 데이터를 선택된 메모리 또는 소스로부터 소싱 유닛으로 전송하는 단계를 포함할 수 있음을 이해할 것이다.
본원에서 설명되는 바와 같이, 블록(220)에서는 투영을 획득하는 특별한 방법이 더 처리될 수 있다. 블록(220)으로부터의 각각의 투영은 검출기(28)에 의해 기록된 신호 레벨이 부정확하다는 점에서 왜곡될 수 있다. 왜곡은 X선의 원추형(26x)을 포함하는 시야에서 척추경 나사(120)의 재료로 인해, 스트리킹(streaking) 또는 그림자와 같은, 투영으로부터 재구성된 3D 영상 내의 아티팩트를 야기한다. 도 5에서, (c) 부분은 관심 영역(AOI: area of interest) 또는 관심 시야의 근접 또는 상세도를 도시한다.
블록(220)에서 투영의 획득은 프로세스(200)에 대한 제1 입력을 포함할 수 있다. 부가적인 입력들은 블록(226)에서 기지의 컴포넌트 파라미터들 또는 기지의 컴포넌트들(KC: known components)을 포함할 수 있다. 기지의 컴포넌트 파라미터는 척추경 나사(120)와 같은 선택된 물체의 미리 결정된 파라미터일 수 있다. 다양한 실시예들에서, 예를 들어, KC는 자루(120')와 머리(120'')를 갖는 척추경 나사(120)를 포함할 수 있다. 기지의 컴포넌트 파라미터는 스테인레스강 합금으로 형성된 자루(120') 및 동일한 스테인리스강 합금으로 형성된 머리(120')와 같이, 척추경 나사(120)의 선택된 부분의 재료의 유형을 더 포함할 수 있다. 그러나, 자루(120')와 같은 척추경 나사는 티타늄 또는 티타늄 합금, 고분자 등과 같은 다른 재료로 형성될 수 있음을 이해해야 한다. 그럼에도 불구하고, 블록(226)에서 기지의 파라미터는 척추경 나사(120)와 같은 선택된 물체의 사양을 포함할 수 있다.
블록(226)에서 기지의 파라미터는 길이, 폭, 높이 등과 같은 선택된 치수를 더 포함할 수 있다. 블록(226)에서 기지의 파라미터는 척추경 나사(120)의 구성요소 또는 부분의 개수, 및 척추경 나사의 다양한 구성요소들 또는 부분들의 상대적인 기하학적 형상을 더 포함할 수 있다. 예를 들어, 블록(226)에서 기지의 파라미터는 척추경 나사(120)의 고정된 기하학적 구조 및/또는 척추경 나사(120)의 다양한 가능한 기하학적 형상을 포함할 수 있다. 도 5에 도시된 바와 같이, 척추경 나사(120)는 서로에 대해 움직일 수 있는 자루(120') 및 머리(120'')를 포함한다. 따라서, 블록(226)에서 기지의 파라미터는 머리(120'')에 대한 자루(120')의 움직임(예를 들어, 가능한 기하학적 형상)의 범위 및/또는 자유도를 포함할 수 있다.
블록(226)에서 기지의 파라미터는 척추경 나사(120)를 포함하여, 선택된 물체에 대한 X선의 기지의 상호작용을 더 포함할 수 있다. 블록(226)에서 기지의 파라미터는 머리(120')를 형성하는 스테인레스강 및 자루(120')를 형성하는 스테인레스강과, X선과의 기지의 상호작용을 포함할 수 있다. 블록(226)에서 기지의 파라미터는 X선과 티타늄 또는 티타늄 합금, 고분자, 또는 척추경 나사(120)를 형성할 수 있는 다른 물질과의 상호작용을 더 포함할 수 있다. KC의 기지의 상호작용은 감쇠의 양, 산란의 양, 흡수의 양, 또는 척추경 나사(120)의 물질에 대한 X선의 다른 선택된 파라미터를 포함할 수 있다. 기지의 컴포넌트 파라미터는 프로세스(200)에 앞서 테스트를 통해 결정될 수 있고, 추가적인 액세스를 위해 저장될 수 있다. 또한, KC는 블록(226)에서 단수를 포함하는, 특정한 KC를 선택하는 데 입력되거나 사용되는, 척추경 나사(120)와 같은 특정 물체에 관한 것일 수 있다.
구성요소 또는 물체(예를 들어, 척추경 나사(120))의 파라미터로도 지칭되는 기지의 컴포넌트 파라미터는, 선택된 프로세스 동안 정확한 값 및/또는 정의되거나 결정된 것을 포함하여, 전술한 바와 같은 다양한 방식으로 정의될 수 있다. 정확한 값들 또는 파라미터들은 물체의 사양들(예를 들어, 물체의 미리 결정된 및/또는 기지의 기술 사양들)에 기초할 수 있다. 물체의 사양은 길이, 직경, 폴리에너지 X선 빔과의 상호작용, 또는 다른 특징들을 포함하는, 위에서 식별된 것들과 같은 특징들을 포함할 수 있다. 이들 값은 예를 들어, 선택된 허용오차 내에서 정확한 폭 또는 범위 길이, 직경 등을 아는 것과 같이 정확하거나 또는 거의 정확할 수 있다. 그러나, 다양한 실시예들에서, 파라미터들은 선택된 프로세스 동안 결정되거나 정의될 수도 있다. 본원에서 설명되는 바와 같이, 물체는 본원에서 더 설명되는 바와 같은 선택된 프로세스에 기초하여 투영 내에서 결정되거나 정합될 수 있다. 정합 프로세스 동안, 물체는 파라미터 방식으로 정의되고/되거나 획득된 투영 내에서 결정될 수 있다. 정합 프로세스 동안 파라미터들을 정의함으로써, 선택된 수술 동안에 길이, 직경 등을 포함하는 파라미터들의 결정이 이루어질 수 있다. 이들은 영상의 분석에 기초할 수 있거나, X선 빔 또는 다른 특징들과의 기지의 또는 가정된 상호작용들에 기초하는 투영을 필요로 할 수 있다. 따라서, 파라미터들은 전술되고 본원에서 언급된 바와 같이 미리 결정될 수 있고/있거나, 투영 내에 획득된 영상 데이터를 분석함으로써 정합 프로세스 동안 결정될 수 있다.
따라서, 다양한 실시예들에서, 블록(226)에서 기지의 컴포넌트 파라미터들은 척추경 나사(120)를 포함하는 선택된 물체에 대한 룩업 테이블과 같은 표현들일 수 있다. 또한, 블록(226)에서 기지의 파라미터는 기지의 재료 및 이에 관한 X선의 기지의 상호작용을 포함하는 척추경 나사(120)의 CAD(computer aided design) 모델과 같은 선택된 특정 모델을 포함할 수 있다. 다양한 실시예들에서, 척추경 나사(120)는 CD Horizon® Solara® 이식가능한 척추경 나사이고, 블록(226)에서 기지의 컴포넌트 파라미터는 특정한 척추경 나사(특정 모델 수 및/또는 기하학적 형상과 그의 치수를 포함함)의 CAD 모델이나, 기지의 물질, 물질의 상호작용 등에 따라 변형가능한 스플라인 모델(예컨대 원통형 와이어, 니들 또는 봉의 스플라인 모델 등)을 포함할 수 있다. 블록(226)에서 기지의 파라미터들은 프로세싱 유닛(58)을 이용하여 재호출되는 것과 같이 프로세스(200)의 다른 부분들에 대해 액세스될 수 있다.
도 4를 계속 참조하면, 일단 블록(220)에서 투영들이 획득되고, 블록(226)에서 기지의 파라미터들이 획득되거나 액세스되면, 기지의 컴포넌트(KC) 정합으로도 지칭되는 정합이 하위 블록 또는 하위 프로세스(240)에서 발생할 수 있다. 블록(240)에서 KC 정합은 블록(250)에서 전방 투영을 포함하는 다양한 단계들 또는 프로세스들을 포함할 수 있다. 이후에, 본원에서 더 설명되는 바와 같이, 블록(250)에서의 전방 투영이 블록(260)에서 투영과 비교될 수 있다. 블록(260)에서의 비교에 기초하여, 블록(270)에서 유사성 메트릭(GC)이 결정될 수 있다. 블록(260)에서의 비교는 블록(270)에서 유사성 메트릭을 산출하고, 그 다음, 블록(280)에서 최적화될 수 있다. 특히, 최적화 블록(280)은 블록(260)에서의 비교에 기초하여 블록(270)에서 유사성 메트릭을 결정하기 위해 블록(250)의 전방 투영에 다시 적용되는 변환을 생성할 수 있다. 따라서, 블록(240)에서의 KC 정합은 블록(280)에서의 최적화가 최적화된 변환을 결정할 때까지의 반복적인 프로세스이다.
최적화된 변환은, 블록(250)에서의 전방 투영과 블록(260)에서의 투영 간의 차이가 실질적으로 작거나 블록(270)에서의 선택된 유사성 메트릭을 가지는, 수렴일 수 있다. 유사성 메트릭에 대한 선택된 변환에서, 변환은 최적화된 변환(
Figure pct00001
)으로서 수렴되거나 최적화된 것으로 결정되고, 재구성 프로세스(290)를 위해 사용될 수 있다. 재구성 프로세스(290)는 아티팩트 또는 노이즈 감소 프로세스(200)의 하위 프로세스인 것으로 이해된다. 재구성 프로세스(290)는 본원에서 더 설명될 것이고, 간단하게는, 블록(280)으로부터의 최적화된 또는 수렴된 변환을 이용하여 블록(220)으로부터 획득된 투영들을 조합한다.
KC 정합 프로세스(240)로 되돌아가면, KC 정합 프로세스(240)는 블록(220)으로부터의 획득된 투영의 전부 또는 그보다 적은 수를 포함한 선택된 개수의 투영을 이용한 블록(226)으로부터의 기지의 컴포넌트의 정합을 포함하고, 이는 재구성 하위 프로세스(290)에서 이후의 재구성을 위해 사용될 수 있다. 특히, KC 정합은 블록(226)에서 기지의 컴포넌트에 매치하는 블록(220)으로부터의 획득된 투영 내의 부분을 결정하려고 시도한다. 예를 들어, 하나 이상의 투영들 내의 하나 이상의 픽셀들은 블록(208)에서 피사체 내에 위치되는 선택된 물체(예를 들어, 척추경 나사(120))에 의해 생성되고, 따라서 블록(226)으로부터 기지의 컴포넌트의 전방 투영과 일치해야 한다. 예를 들어, 전술한 바와 같이, 척추경 나사(120)는 블록(226)에서 기지의 컴포넌트 파라미터를 정의하는 기지의 정확한 파라미터를 가질 수 있다. 따라서, 기지의 파라미터는
Figure pct00002
로 표시되는 바와 같이 입력될 수 있다. 디지털 방사선 투과 사진 재구성 또는 디지털적으로 재구성된 방사선 투과 사진(DRR: digitally reconstructed radiograph)은 블록(250)에서 전방 투영을 형성하고, 식 1에 의해 정의될 수 있다:
Figure pct00003
식 1
식 1에서, 전방 투영
Figure pct00004
은 기지의 컴포넌트의 투영이다. 특히, 식 1은 블록(226)로부터의 입력된 기지의 파라미터들
Figure pct00005
로부터 형성된 DRR을 포함하고, 이는 변환된 KC
Figure pct00006
에 입사하는 광선
Figure pct00007
을 따른 선적분인 선택된 물체의 메시 모델을 포함할 수 있다. 따라서, 전방 투영
Figure pct00008
은 획득된 투영(본원에서는
Figure pct00009
으로도 지칭됨)과 비교될 수 있는, 블록(226)으로부터의 기지의 컴포넌트 파라미터들
Figure pct00010
에 기초하여 디지털적으로 재구성된 방사선 투과 사진(본원에서 마스크로도 지칭됨)이다. 강체 동차 변환(homogeneous transform) 또는 변형 가능한 b-스플라인 함수와 같은, 하나 이상의 선택된 변환 모델(
Figure pct00011
)이 사용될 수 있다. 일반적으로, 오직 하나의 변환 모델만이 임의의 특정 애플리케이션에서 선택될 수 있지만, 다양한 적절한 모델이나 변환(
Figure pct00012
)이 선택될 수 있다. 또한, 예를 들어 원통형 프로파일을 갖는 기구의 미지의 직경을 모델링하기 위해, 최적화 프로세스 내에
Figure pct00013
의 선택 파라미터가 포함될 수 있다.
블록(250)에서 정의된 전방 투영은 블록(260)에서, 블록(220)으로부터 획득된 투영들
Figure pct00014
과 비교될 수 있다. 블록(260)에서의 비교는, 다양한 실시예들에서, 기울기 상관(GC: gradient correlation)으로 정의되는 유사성 메트릭을 출력시킬 수 있다. 식 2에 따르면, GC는 적절한 유사성 메트릭이지만, 다른 유사성 메트릭도 사용될 수 있는 것으로 이해된다. 그러나, GC와 관련하여, 식 2는 다음을 포함한다:
Figure pct00015
식 2
그리고, 식 3은 다음과 같다:
Figure pct00016
식 3
GC는 일반적으로 블록(250)에서의 전방 투영
Figure pct00017
과 블록(220) 내의 획득된 투영들 사이에서의 기울기(하이 콘트라스트 영역 또는 엣지로도 지칭됨)를 찾는다. 식 2 및 식 3에 따르면, GC는 직교 영상 기울기의 정규화된 교차-상관(NCC: normalized cross-correlation)의 합으로 정의된다. 예를 들어, NCC는 영상들
Figure pct00018
Figure pct00019
에 대한 영상 기울기들의 정규화된 강도들 및 의 상관관계를 각각 정의한다. 따라서, 식 2에 예시된 바와 같이, GC는 블록(250)으로부터의 전방 투영과 블록(220)으로부터의 획득된 투영들 사이의 기울기의 합이다.
이어서, 블록(280)에서의 최적화는, 수렴 변환
Figure pct00020
이 확인되었는지 또는 달성되었는지를 판단하는 데 사용된다. 특히, 수렴은 식 4에 의해 정의된다:
Figure pct00021
식 4
이는, 블록(250)에서의 전방 투영과 블록(220)으로부터의 획득된 투영들 사이에서 반복적으로 찾아질 수 있다. 식 4는 블록(250)에서의 전방 투영과 블록(220)에서의 획득된 투영들 사이의 가장 큰 유사도를 결정하는 데 사용된다. 블록(260)에서의 비교에 기초하여 블록(270)에서 GC를 결정하고, 블록(280)에서의 최적화된 전방 투영을 블록(250)에서의 상이한 전방 투영으로 변환함으로써, 반복이 수행된다. 따라서, 최적화 블록은, 블록(270)에서 유사성 메트릭이 동일한지 또는 최적화되었는지 및/또는 예를 들어,
Figure pct00022
의 평균 변화가 약 0.1 밀리미터(mm)를 포함하는 약 0.01 mm 내지 약 0.2 mm, 및 약 0.1도를 포함하는 약 0.01도 내지 약 0.2도 보다 작은 경우와 같이, 변화의 선택된 임계값 내에 있는지 여부를 결정할 수 있다. 임계값은 이와 함께 또는 대안적으로, 유사성 메트릭 GC의 변화가 부동 소수점 숫자들을 표현하기 위한 머신 정밀도(예를 들어, 영상 프로세싱 유닛(58) 등)에 대한 접근하는 경우를 포함할 수도 있다.
블록(280)에서의 최적화가 임계값에 도달하지 않은 것으로 판단되면, 아니오 경로(282)가 전방 투영 블록(250)에 뒤따를 수 있다. 다음으로, 전방 투영은 블록(226)에서 기지의 컴포넌트에 대해 상이한 관점에서 전방 투영을 결정하는 것과 같이 변경되어, 블록(220)으로부터 획득된 투영들과의 비교를 위한 새로운 전방 투영을 형성할 수 있다. 최적화 블록(280)이 수렴에 도달했다고 판단하면(예를 들어, 현재의 GC로부터의 차이가 이전의 GC에 대한 임계값 내에 있음), 수렴되거나 최적화된 변환
Figure pct00023
은 예 경로(284)와 함께 출력될 수 있다.
프로세싱 유닛(58) 또는 다른 적절한 프로세싱 유닛에 의해 실행될 수 있는 것들과 같은 적절한 최적화 기술들이 최적화 블록(280)에서 사용될 수 있다. 다양한 실시예들에서, 최적화를 달성하는 데에 공분산 행렬 적응 진화 전략이 사용될 수 있다. 선택된 전략은 확률 유도되지 않는 최적화 방법을 포함할 수 있다. 그러나, 다른 적절한 최적화 방법들 또는 기술들이 최적화 블록(280)에서 사용될 수 있는 것으로 이해된다.
최적화된 변환을 출력하기 위해 예 경로(284)가 뒤따르면, 블록(220)에서 획득된 투영을 수정하는 데에 최적화된 변환(
Figure pct00024
)이 사용될 수 있다. 블록(220)에서 획득된 투영들에 대한 수정은 본원에서 더 설명된 것들을 포함하여 임의의 적절한 프로세스에 따라 이루어질 수 있다. 다양한 실시예들에서, 선택된 방식으로 복원하는 단계는 본원에서 더 설명되는 바와 같이, 수정 블록(310)에서 수행될 수 있다. 복원은 획득된 투영의 보간법(interpolation) 기반 복원과 같은 일반적으로 알려진 디지털 복원을 포함할 수 있다. 보간법 기반 복원 동안, 구성요소 또는 물체(예를 들어, 척추경 나사(120))의 일부로서 식별되는 픽셀 또는 복셀은 선택된 유형 또는 방식의 픽셀 또는 복셀로 대체될 수 있다. 예를 들어, 전술된 프로세스(200)에 기초하여 식별된 픽셀들은 물체(예를 들어, 척추경 나사(120))의 선택된 모델 또는 그래픽 표현으로 대체될 수 있다. 추가적으로 또는 대안적으로, 식별된 픽셀들 또는 복셀들은 물체로 식별된 획득된 투영들에서 선택된 색 또는 특징으로 대체될 수 있다. 선택된 모델로부터의 직접적인 복원에 부가하여, 엣지에 있거나, 식별된 물체의 픽셀들 또는 복셀들 사이에 있거나, 식별되지 않은 픽셀들 또는 복셀들 사이에 있는 픽셀들을 판단하거나 식별하거나 대체하는 데에 보간법이 수행될 수 있다. 또한, 투영 내에서 물체의 표현을 선택적으로 특징짓기 위해 선택적인 랜덤 노이즈 성분과 같은 선택된 양의 노이즈가 복원된 복셀들 또는 픽셀들에 추가될 수 있다.
직접 및/또는 보간법 기반 복원에 더하여, 다양한 다른 프로세스들이 복원을 지원하거나 수행하기 위해 사용될 수 있다. 예를 들어, 투영에 복원을 적용하기 위해 기계 학습 프로세스 또는 시스템이 사용될 수 있다. 예를 들어, 프로세스(200)에서 식별되는 픽셀들 또는 복셀들은 기계 학습 시스템의 이전 트레이닝에 기초하여 복원될 수 있다. 예를 들어, 이전에 결정된 물체 투영의 트레이닝과, 투영에서의 물체의 식별 및 그 안의 복원에 기초하여, 복원될 픽셀 또는 복셀을 결정하기 위해 신경망(예를 들어, 심화 학습 시스템)이 사용될 수 있다. 따라서, 다양한 실시예들에서, 복원은 보간법 또는 기계 학습 기반 시스템과 같은 적절한 시스템에 따라 투영에서 복셀들 또는 픽셀들을 대체할 수 있다.
블록(310)에서의 투영들의 수정은, X선 빔과 같은 영상 시스템의 선택된 모델링을 이용하여 픽셀 또는 복셀 값들을 계산하는 것과 같이, 픽셀 값들을 결정하거나 추정하는 단계를 포함할 수도 있다. 전술한 바와 같이, X선 빔은 방출기(26)에 의해 방출되는 X선을 포함할 수 있다. 방출된 빔의 X선은 스펙트럼을 포함하는 폴리에너지일 수 있다. 따라서, 방출된 X선은 단일 주파수 또는 출력을 갖지 않을 수 있다. 폴리에너지 X선 빔은 X선 빔의 폴리에너지 아이덴티티에 기초하여 공지된 방식으로 물질과 상호작용할 수 있다. 투영에서의 물체와의 상호작용은, 전술한 바와 같이, 다양한 X선 성분들(X선 스펙트럼에 의해 정의됨)의 기지의 컴포넌트들에 기초할 수 있다. 따라서, X선 빔의 공지된 폴리에너지 모델에 기초하여 결정된 픽셀 값들이 투영 내의 픽셀 또는 복셀 값들을 생성하는 데에 사용될 수 있고, 따라서, 투영 내의 결정된 픽셀들을 대체하는 데에 사용될 수 있다.
전술한 바와 같이, 투영은 다양한 방식들로 그리고 적절한 프로세스들에서 수정될 수 있다. 본원에서의 복원에 대한 설명은 단지 예시적인 것이며, 이하의 청구항들의 청구범위를 제한하고자 하는 것은 아니다. 따라서, 수정하는 단계는 블록(220)에서 획득된 투영들을 블록(310)에서 수정(예를 들어, 복원)하여 복원하는 단계를 포함할 수 있다. 복원 블록(310)은 재구성 프로세스(290)의 제1 처리 또는 단계이다. 재구성 프로세스(290)는 금속 아티팩트 감소 또는 제거(MAR: metal artifact reduction or removal) 프로세스로 지칭될 수도 있다. 따라서, MAR 재구성은 척추경 나사(120)와 같은 선택된 물체로 인한 아티팩트를 감소시키거나 제거하는 데 사용될 수 있다. 복원 블록(310)에서 금속 아티팩트 또는 다른 선택된 아티팩트를 감소시킴으로써, 후속 재구성을 위해 아티팩트들이 제거된다. 재구성은 필터링된 후방 투영(FBP: filtered back projection)을 포함하는 후방 투영 재구성을 포함하거나 이에 기초할 수 있다. 다양한 실시예들에서, 후방 투영은 블록(320)에서 3차원(3D) 투영일 수 있다. 재구성은, 디스플레이 장치(66)에서 보이는 영상(64)의 재구성을 형성할 수 있는 블록(330)에서 발생한다.
도 4 및 도 5를 계속 참조하면, 복원 블록(310)은 블록(220)으로부터 획득된 투영을 복원하기 위해 최적화된 변환을 사용한다. 프로세스(200)에 도시된 바와 같이, 투영(
Figure pct00025
)은 최적화된 변환 또는 수렴된 변환
Figure pct00026
과 함께 복원 블록(310)으로 입력된다. 복원 블록(310)에서, 투영들의 주변 픽셀들(
Figure pct00027
)은 KC의 전방 투영에 의해 식별되는 영역을 보간하는 데 사용될 수 있다. 대안적으로, X선 및 금속 상호작용의 다양한 효과를 고려하는 전방 투영의 DRR(
Figure pct00028
)은 최적화 블록(280)으로부터의 최적화된 변환
Figure pct00029
에 기초하여 정합된 위치에서 획득된 투영(220)으로 복원될 수 있다. 즉, 정합된 위치에서 획득된 투영(220)으로 복원하는 데에, 전방 투영에 포함된 X선과의 공지된 물질의 상호작용에 기초하여, 성분 형상 및 재료 내용의 KC 모델에 의해 알려지는, 선택된 폴리에너지 신호 모델이 사용될 수 있다. 따라서, 블록(250)으로부터의 전방 투영과 매칭되거나 또는 가장 큰 유사성 메트릭을 갖는 획득된 투영(220) 내의 픽셀들은 복원 블록(310) 내의 블록(250)으로부터의 전방 투영으로 대체된다.
위에서 언급된 바와 같이, 도 5를 참조하면, 블록(220)으로부터의 투영, 또는 투영들 중 하나는 척추골(124p) 및 영상화된 나사(120p)를 포함한다. 일단 변환이 블록(280)에서 최적화되면, 도 5의 부분 (b)의 나사(120p)를 최적화한 또는 가장 잘 매치되는 전방 투영이 블록(250)으로부터 전방 투영으로 대체되거나 복원될 수 있다. 도 5의 부분 (e)에 도시된 바와 같이, 복원된 나사(120ip)(부분 (f)에서 점선으로 개략적으로 도시됨)는 투영에서 나사(120p)를 대체하고, 이를 척추골(124p)이 포함된 영상에서 대체하는 데 사용되거나 복원될 수 있다. 전술한 바와 같이, 블록(220)에서 획득된 투영들은 피사체(14)에 대해 획득된 하나 이상의 투영을 포함할 수 있다. 다양한 실시예들에서, 투영들의 수는 3개의 투영들, 6개의 투영들, 모든 투영들, 또는 임의의 적절한 수를 포함할 수 있다. 다양한 실시예들에서, 블록(220)의 획득된 투영들은 피사체(14) 주위에 30도(또는 임의의 적절한 선택된 각도(θ))만큼 서로로부터 오프셋 또는 변위되는 6개의 투영들을 포함할 수 있다. 블록(270)에서의 유사성 메트릭 및 블록(280)에서의 최적화된 변환은 피사체(14)의 투영들의 일부분 또는 선택된 수에 대한 것일 수 있다. 그러나, 블록(226)에서 기지의 컴포넌트 파라미터들의 사용은, 블록(226)에서 기지의 컴포넌트 파라미터들로 인해 블록(220)에서의 실제 투영들에 유사하게 또는 가장 근접하게 일치하는 블록(250)의 전방 투영에 기초하는, 빠르고 효율적인 정합을 가능하게 하거나 이를 최소화할 수 있는 것으로 이해된다. KC 파라미터는 다시, 크기, 형상, 물질, 및 X선과의 상호작용을 포함할 수 있다. 그럼에도 불구하고, 블록(310)에서의 복원은 전술한 바와 같이 식별된 나사(120p)를 그에 정합된 복원된 전방 투영으로 대체할 수 있다. 그 후, 블록(310)에서 투영은 도 5의 부분(e)에서의 복원된 투영이 되도록, 복원된 선택된 부분 또는 물체를 포함하는 복원된 투영이 될 수 있다.
블록(310)에서의 복원은 다양한 최적화 또는 강건성 특징들을 포함할 수도 있다. 예를 들어, 마스크로 지칭될 수도 있는 블록(250)으로부터의 전방 투영은 블록(220)으로부터의 투영들에 대한 블록(226)으로부터의 정확한 기지의 컴포넌트 파라미터들에 대해 확장될 수 있다. 다양한 실시예들에서, 블록(250)으로부터의 전방 투영 마스크는 블록(310)에서 투영 상에 복원될 때 확장을 가질 수 있거나, 하나 이상의 픽셀을 확장시킬 수 있다. 확장은 제조 오차, 영상 시스템의 기하학적 보정, 부동 소수점 정밀도 오류, 또는 다른 가능한 오류와 같은 오류를 극복하는 것을 보조할 수 있다. 마스크의 선택된 확장의 양은 위에서 언급한 바와 같이, 적절한 오류의 위치 설정 또는 오류의 고려를 보조한다. 영상(64)일 수 있는 본원에서 설명되는 최종 재구성은, 척추골(124) 내에 척추경 나사(120)가 배치되는(이식되는) 최종 위치 또는 범위를 도시하기 위해, 블록(220)으로부터의 KC 파라미터의 치수를 포함할 것이다.
또한, 블록(280)으로부터의 최적화된 변환은 블록(310)에서 복원될 투영 내의 선택된 물체를 식별한다. 복원 프로세스 또는 방법은 적절한 방법들로부터 선택될 수 있다. 예를 들어, 복원은 선택된 투영 내의 선형 보간을 포함할 수 있다. 다양한 실시예들에서, 선형 보간은, 블록(280)으로부터의 식별된 변환에 의해 (전방 투영(260)의 DRR과 같이) 마스킹되는 영역의 볼록한 선체(hull)에 걸쳐 Delaunay 삼각분할(예를 들어, Barber, C.B., Dobkin, D.P., 및 Huhdanpaa, H.T.가 저술한 "The Quickhull algorithm for convex hulls," ACM Trans. on Mathematical Software, 22(4):469-483, 1996에 개시된 퀵헐(quickhull) 알고리즘)을 생성하고, 이어서 각각의 생성된 삼각형에 대해 질량중심 보간(barycentric interpolation)함으로써 생성된다. 그 다음, (다양한 실시예들에서, KC 모델을 실행하는 보간-기반 또는 모델-기반의 적어도 하나를 포함하는) 복원 프로세스가 모든 투영들(예를 들어, 블록(220)에서 획득된 모든 투영들)에 대해 반복되고, 블록(220)에서의 각각의 투영 입력들의 측정이 반복된다.
블록(220)으로부터의 투영들을 복원하는 단계를 포함하는 것과 같은, 블록(310)에서의 수정이 완료되면, 블록(320)에서 수정된 투영들과 함께 재구성(reconstruction)이 수행될 수 있다. 재구성은 본원에서 설명되는 바와 같이 임의의 적절한 재구성일 수 있다. 재구성은 본원에서 설명되는 바와 같이 다양한 목적을 위해 사용될 수 있다.
다양한 실시예들에서, 블록(320)에서의 재구성은 3차원 필터링된 후방 투영(3D FBP)을 포함할 수 있다. 예시적인 실시예들에서, 3D FBP는 본 기술분야에 일반적으로 알려진 Feldkamp-Davis-Kress 알고리즘 재구성 방법을 포함할 수 있다. 그러나, 다른 적절한 재구성(예를 들어, 대안적인 후방 투영) 방법들이 이용될 수도 있는 것으로 이해된다.
필터링된 후방 투영에 부가적으로 및/또는 대안적으로, 반복적인 재구성이 수행될 수도 있다. 반복적인 재구성은 모델 기반 반복 재구성(MBIR: model based iterative reconstruction) 알고리즘을 포함할 수 있다. 반복적인 재구성은 모델과 블록(310)으로부터 수정된 투영들 간의 차이를 달성하거나 최소화하기 위해 모델의 파라미터들을 반복적으로 변경하는 단계를 포함할 수 있다. 예를 들어, 척추경 나사(120)와 같은 물체의 모델이 식별될 수 있고, 모델을 통한 투영은 블록(310)으로부터 수정된 투영들과 매칭하도록 반복적으로 변경될 수 있다. 매치가 달성되면, 모델은 모델 투영의 재구성을 보조하는 데에 사용될 수 있다.
블록(320)으로부터의 후방 투영들에 기초하여, 블록(330)에서 재구성 프로세스(290)가 재구성된 영상을 출력할 수 있다. 재구성된 영상은 재구성의 시각화일 수 있다. 시각화는 디스플레이 장치(66)를 이용한 영상으로 표시되는 것과 같이, 보여지기 위한 영상으로서 표시될 수 있다.
블록(330)에서의 출력된 재구성은 KC-MAR 재구성 및/또는 시각화(예를 들어, KC-MAR 재구성 시각화)로 지칭될 수 있다. 시각화를 포함하는 출력은 사용자(54)에게 보이도록 디스플레이 장치(66) 상에 표시하기 위한 영상(64)을 포함하거나 그로서 표현될 수 있다. 재구성은 3차원 재구성을 포함할 수 있고/있거나 사용자에게 보이기 위한 영상들로서 후방 투영들을 도시할 수 있다. 도 6을 참조하면, 블록(220)에서 정정되지 않고 획득된 투영의 후방 투영이 행(A)에 도시되어 있다. KC 정합(240) 및 재구성 프로세스(290)를 포함하는, 프로세스(200)를 이용한 재구성은 행(B)에 도시되어 있다. 도 6에 명확히 도시된 바와 같이, 복원된 정합된 기지의 컴포넌트를 갖는 행(B)은 금속 아티팩트 또는 선택된 왜곡을 감소시킨다. 왜곡 감소는 재구성에 있어서 감소된 또는 최소의 스트리킹 및 다른 아티팩트를 갖는, 더 예리한 또는 더 높은 콘트라스트 엣지들을 포함하는 시각화 또는 재구성 시각화를 가능하게 한다.
도 6의 행(B)에 도시된 바와 같이, 재구성 시각화는 블록(226)으로부터의 기지의 컴포넌트들에 기초하여 선택된 정보를 포함할 수도 있다. 전술한 바와 같이, 블록(310)에서의 복원은 블록(250)에서의 전방 투영으로부터의 마스크를 이용하여 복원될 수 있다. 블록(250)에서의 전방 투영은 블록(226)으로부터의 기지의 컴포넌트 파라미터들을 포함한다. 따라서, 복원은 크기, 형상 및 구성(configuration)과 같은 다양한 기하학적 구성을 포함할 수 있고, 블록(250)으로부터의 전방 투영의 마스크는 기지의 컴포넌트들의 상이한 재료에 따른 상이한 감쇠로 인한 재료의 차이를 포함할 수도 있다. 예를 들어, 전술한 바와 같이, 척추경 나사(120)의 머리(120'')는 자루(120')와 상이한 재료이거나 또는 상이한 재료로 형성될 수 있다. 따라서, 도 6의 행(B)에서의 재구성은, 예를 들어, 그레이스케일로 인해, 상이한 재료들의 재구성된 부분들을 구별시킬 수 있다. 그러므로, 다양한 실시예들에서, 머리(120'')의 재구성된 투영은 자루(120'r)와는 상이하거나 변경된 그레이스케일 또는 시각 효과를 가질 수 있다. 이는 적어도 부분적으로, 기지의 컴포넌트 파라미터에 기초하는 블록(250)으로부터의 전방 투영에 기인한다. 블록(226)에서 KC 파라미터는 척추경 나사(120)와 같은 기지의 컴포넌트에 관하여 총망라될 수 있다.
기지의 컴포넌트 파라미터들은 크기 및 형상을 포함할 수 있고, 또한 재료를 포함할 수 있기 때문에, 블록(310)에서 전방 투영 및 복원을 형성하기 위해 각각의 효과가 알려지고 적용될 수 있다. 다시, 전술한 바와 같이, 기지의 컴포넌트들 및 X선 투영들에 대한 그들의 효과들은 미리 결정되고 알려지며 저장되어 블록(250)에서의 전방 투영 및 블록(310)에서의 복원을 위해 재호출될 수 있다. 따라서, 블록(320)에서의 후방 투영 재구성 및 블록(330)에서의 재구성 시각화 또는 출력은 각각, 블록(226)으로부터의 기지의 컴포넌트 파라미터들에 기초할 수도 있다.
재구성 시각화, 또는 블록(330)에서의 시각화는 다양한 포맷으로 생성될 수 있고/있거나, 하나 이상의 옵션으로부터 사용자에 의해 선택될 수 있다. 시각화는 블록(310)으로부터의 수정된 투영의 직접적인 재구성을 포함할 수 있다. 예를 들어, 블록(320)으로부터의 재구성은 사용자(54)에게 보이도록 표시될 수도 있다. 전술한 바와 같이, 재구성은 수정된 투영들을 재구성 투영에 직접 포함시키는 단계를 포함할 수 있다. 복수의 투영들 또는 선택된 복수의 투영들은 사용자(54)에게 보이도록 3차원(3D) 모델 또는 시각화를 생성하는 데 사용될 수 있다. 따라서, 블록(330)에서의 시각화는 직접적인 시각화 또는 블록(320)으로부터의 직접적인 재구성의 시각화일 수 있다.
다양한 실시예들에서, 시각화는 블록(310)으로부터의 수정된 투영들 내의 정합된 물체와 일치하는 화상 또는 영상 요소들(예를 들어, 복셀들 또는 픽셀들)을 포함하고/하거나, 이를 대안적으로 포함할 수 있다. 예를 들어, 전술한 바와 같이, 물체가 정합되면, 투영은 선택된 다른 픽셀들 또는 복셀들로 물체가 대체될 때 일치하거나 정합되는 픽셀들 또는 복셀들을 가질 수 있다. 예를 들어, 픽셀 또는 복셀의 선택된 색, 그라데이션(gradient) 또는 유형이 블록(330)에서의 시각화에서 정합된 복셀을 대체하는 데 사용될 수 있다. 따라서, 정합된 물체와 관련된 픽셀 또는 복셀들이 대체될 수 있다는 추가적인 또는 대안적인 시각화가 요구되거나 생성되지 않을 수 있다.
추가적인 대안 및/또는 추가적인 시각화로서, 선택된 슬라이스 또는 2D 부분은 물체의 선택된 특징 또는 파라미터에 대해 표시될 수 있다. 예를 들어, 물체(예를 들어, 척추경 나사(120))가 투영에서 식별되거나 정합되면, 물체를 포함하고/하거나 물체와 일치하는 슬라이스들은 예를 들어, 물체의 장축을 따라 선택된 방식으로 방향 설정 또는 방향 재-설정되어 도시될 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 디스플레이를 위한 도시 또는 시각화는 시각화를 방향 설정하는 데에 나사(120)의 장축(102L)이 사용되도록 방향 설정될 수 있다. 따라서, 장축(102L)은 영상을 수직 방향으로 설정하기 위해 사용될 수 있고, 복수의 슬라이스들 또는 2D 영상들이 표시되면 이들 모두는 실질적으로 평행하게 표시될 수 있다.
다른 대안 및/또는 추가로서, 선택된 영상 위에 그래픽 표현이 중첩되거나 오버레이될 수 있다. 예를 들어, 전술한 바와 같이, 물체는 척추경 나사(120)를 포함할 수 있다. 또한, 물체는 물체의 모델을 포함할 수 있는 기지의 컴포넌트들에 기초하여 판별 및/또는 식별될 수 있다. 따라서, 물체의 선택된 부분 또는 버전(예를 들어, 표현 또는 아웃라인)이 영상에 대해 표시될 수 있다. 다양한 실시예들에서, 예를 들어, 그래픽 표현은 물체의 정합된 위치에서 영상 위에 중첩되거나 오버레이될 수 있다.
따라서, 블록(330)에서의 시각화는 임의의 적절한 시각화를 포함할 수 있다. 시각화는 획득된 투영에서 척추경 나사(120)와 같은 물체의 정합되거나 알려진 위치에 기초할 수 있다. 그 후, 시각화는 다양한 목적을 위해 사용자(54)에게 보이도록 영상(54)과 같이, 디스플레이 장치(66) 상에 표시될 수 있다. 따라서, 다양한 실시예들에서, 디스플레이 장치(66) 상에서 사용자(54)가, 영상 내의 금속 또는 다른 컴포넌트들로 인한 왜곡 또는 아티팩트가 실질적으로 감소 및/또는 제거된 시각화(64)를 볼 수 있도록, 아티팩트들이 시각화 블록(330)에서 거의 감소될 수 있다.
전술한 바와 같이, 디스플레이 장치(66) 상의 영상(64)으로서 표시될 수 있는, 블록(330)에서의 최종 재구성 및/또는 재구성 시각화는, 피사체(14)의 촬영 동안에 영상 시스템(12)으로부터의 X선의 변경된 감쇠 또는 왜곡된 감쇄로 인한 아티팩트를 실질적으로 감소시키거나 제거할 수 있다. 또한, 기지의 컴포넌트 파라미터들(226)은 예를 들어, 250에서 전방 투영을 형성하기 위해 컴포넌트를 효율적이고 더 명백하게 정의함으로써, 블록(280)에서의 정합을 강화하는 것을 보조할 수 있다. 또한, 블록(226)으로부터의 기지의 컴포넌트 파라미터들은 블록(310)에서의 복원을 위한 컴포넌트의 미리 결정된 그리고 기지의 효과들로 인한 아티팩트 및 왜곡을 감소시키는 것을 더 보조할 수 있다. 따라서, 블록(330)에서의 최종 재구성된 영상은 전술한 바와 같은 영상 프로세싱 유닛(58)과 같은 프로세싱 시스템을 이용하여 실행될 수 있는 프로세스(200)에 기초하여 효율적이고 신속하게 생성된다.
예시적인 실시예들은, 본 개시가 전체적이면서 통상의 기술자들에게 그 범위를 충분히 전달하도록 제공된다. 본 개시의 실시예들의 완전한 이해를 제공하기 위해, 특정한 컴포넌트들, 장치들, 및 방법들의 예들과 같은 많은 구체적인 세부사항들이 제시된다. 통상의 기술자에게는, 특정 세부사항이 이용될 필요가 없고, 예시적인 실시예들이 많은 상이한 형태들로 구현될 수 있으며, 어떠한 것도 본 개시의 범위를 제한하는 것으로 해석되어서는 안 된다는 것이 명백할 것이다. 일부 예시적인 실시예들에서, 잘 알려진 프로세스들, 잘 알려진 장치 구조들, 및 잘 알려진 기술들은 상세히 설명되지 않는다.
실시예들의 전술한 설명은 예시 및 설명을 위해 제공되었다. 이는 본 개시를 총망라하거나 제한하는 것으로 의도되지 않는다. 특정 실시예의 개별 요소들 또는 특징들은 일반적으로 그 특정한 실시예로 제한되지 않고, 구체적으로 도시되거나 설명되지 않은 경우에도, 적용가능한 경우 상호교환될 수 있으며, 선택된 실시예에서 사용될 수 있다. 또한, 동일한 것이라도 많은 방식으로 변화될 수 있다. 이러한 변형은 본 개시로부터 벗어난 것으로 간주되지 않으며, 이러한 모든 변형은 본 개시의 범위에 포함되는 것으로 의도된다.
하나 이상의 예들에서, 설명된 기술들은 하드웨어, 소프트웨어, 펌웨어, 또는 이들의 임의의 조합으로 구현될 수 있다. 소프트웨어로 구현되는 경우, 기능들은 컴퓨터 판독가능한 매체 상에 하나 이상의 명령들 또는 코드로서 저장되어 하드웨어 기반 프로세싱 유닛에 의해 실행될 수 있다. 컴퓨터 판독가능 매체는 데이터 저장 매체(예를 들어, RAM, ROM, EEPROM, 플래시 메모리, 또는 명령들이나 데이터 구조들의 형태로 원하는 프로그램 코드를 저장하는데 사용될 수 있고 컴퓨터에 의해 액세스될 수 있는 임의의 다른 매체)와 같은 유형의 매체에 대응하는 비-일시적 컴퓨터 판독가능 매체를 포함할 수 있다.
명령들은 하나 이상의 디지털 신호 프로세서(DSP: digital signal processor), 범용 마이크로프로세서, ASIC(application specific integrated circuits), FPGA(field programmable logic array), 또는 다른 동등한 집적 또는 이산 논리 회로와 같은 하나 이상의 프로세서에 의해 실행될 수 있다. 따라서, 본원에 사용되는 바와 같은 "프로세서"라는 용어는 전술한 구조의 임의의 것, 또는 설명된 기술들의 구현에 적합한 임의의 다른 물리적 구조를 지칭할 수 있다. 또한, 상기 기술들은 하나 이상의 회로들 또는 논리 소자들에서 완전히 구현될 수 있다.

Claims (24)

  1. 영상에서 물체로 인한 아티팩트를 감소시키는 방법으로서,
    상기 물체의 파라미터들에 액세스하는 단계;
    상기 액세스된 파라미터들에 기초하여 상기 물체의 적어도 하나의 전방 투영을 생성하는 단계;
    상기 물체를 내부에 갖는 적어도 하나의 획득된 투영에 대해 상기 전방 투영에서의 상기 물체를 정합하는 단계;
    상기 적어도 하나의 획득된 투영을 상기 정합된 물체의 표현으로 수정하는 단계; 및
    상기 수정된 적어도 하나의 획득된 투영에 기초하여 재구성을 생성하는 단계를 포함하는, 방법.
  2. 제1항에 있어서, 상기 적어도 하나의 획득된 투영을 수정하는 단계는 상기 적어도 하나의 획득된 투영 내의 상기 물체의 표현을 복원하는 단계를 포함하는, 방법.
  3. 제1항 또는 제2항에 있어서,
    복수의 투영들을 획득하는 단계;
    상기 획득된 복수의 투영들 중 적어도 제1 서브-복수의 획득된 투영들을 상기 정합된 물체의 표현으로 수정하는 단계를 더 포함하고,
    상기 재구성을 생성하는 단계는 상기 획득된 복수의 투영들 중 적어도 상기 제1 서브-복수의 획득된 투영들 모두에 기초하여 상기 재구성을 생성하는 단계를 포함하는, 방법.
  4. 제3항에 있어서, 상기 획득된 복수의 투영들 중 적어도 상기 제1 서브-복수의 획득된 투영들 모두에 기초하여 상기 재구성을 생성하는 단계는 3차원 영상을 생성하는 단계를 포함하는, 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    디스플레이 장치를 이용하여 표시하기 위한 상기 재구성의 시각화를 생성하는 단계를 더 포함하는, 방법.
  6. 제5항에 있어서, 상기 시각화를 생성하는 단계는,
    상기 수정된 제1 서브-복수의 획득된 투영들의 수정된 투영 값들의 직접적인 재구성을 생성하는 단계;
    상기 수정된 제1 서브-복수의 획득된 투영들 내의 상기 정합된 물체와 일치하는 복셀들 또는 픽셀들을 대체하는 단계;
    2D 슬라이스가 상기 물체의 적어도 하나의 특징과 일치하도록 상기 시각화를 방향 설정하는 단계;
    상기 획득된 복수의 투영들 중 상기 적어도 하나의 투영의 디스플레이 상에 상기 물체의 그래픽 표현을 중첩시키는 단계; 및
    이들의 조합 중 적어도 하나를 포함하는, 방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 생성된 재구성은 필터링된 후방 투영, 모델-기반 반복적 재구성 프로세스, 및 이들의 조합 중 적어도 하나에 기초하는, 방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 물체의 기하학적 형상, 부분들의 개수, 치수, 재료, 상기 재료와 X선의 상호작용, 움직임 자유도, 및 이들의 조합 중 적어도 하나를 포함하도록 상기 물체의 파라미터들을 결정하는 단계를 더 포함하는, 방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 액세스된 파라미터에 기초하여 상기 물체의 전방 투영을 생성하는 단계는 상기 물체의 디지털적으로 재구성된 방사선 투과 사진을 생성하는 단계를 포함하는, 방법.
  10. 제8항에 있어서, 상기 결정된 파라미터들은 상기 물체의 사양에 기초한 정확한 값들,
    파라미터 방식으로 정의된 값들, 및 이들의 조합 중 적어도 하나로 구성되는, 방법.
  11. 제10항에 있어서, 상기 물체의 상기 파라미터 방식으로 정의된 파라미터들은 상기 물체를 내부에 가지는 적어도 하나의 획득된 투영으로 상기 전방 투영에서의 상기 물체를 정합하는 동안 결정되는, 방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    물체를 피사체 내에 배치하는 단계; 및
    상기 피사체 및 상기 위치된 물체의 상기 적어도 하나의 투영을 획득하는 단계를 포함하는, 방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서, 상기 표현에 따라 상기 획득된 투영들을 수정하는 단계는,
    상기 획득된 투영들의 보간-기반 복원;
    사전 트레이닝을 이용한 기계 학습 기반 복원; 및
    X선 빔에서 X선의 폴리에너지 모델링을 이용하여 추정된 픽셀 또는 복셀 값들을 결정하는 단계 중 적어도 하나를 포함하는, 방법.
  14. 제1항 내지 제13항 중 어느 한 항에 있어서,
    상기 생성된 재구성에 기초하여 시각화를 생성하는 단계를 더 포함하고, 상기 수정된 적어도 하나의 획득된 투영에 기초하는 상기 적어도 하나의 획득된 투영 내의 상기 물체들로 인한 아티팩트는 상기 생성된 시각화 내에서 감소되는, 방법.
  15. 영상에서 물체로 인한 아티팩트를 감소시키기 위한 시스템으로서,
    프로세서 시스템 - 상기 프로세서 시스템은,
    상기 물체의 파라미터들에 액세스하고,
    상기 액세스된 파라미터들에 기초하여 상기 물체의 적어도 하나의 전방 투영을 생성하며,
    상기 물체를 내부에 갖는 적어도 하나의 획득된 투영에 대해 상기 전방 투영에서의 상기 물체를 정합하고,
    상기 적어도 하나의 획득된 투영을 상기 정합된 물체의 표현으로 수정하며,
    상기 수정된 적어도 하나의 획득된 투영에 기초하여 재구성을 생성하기 위한 명령들을 실행하도록 구성됨 - ; 및
    상기 생성된 재구성에 기초하여 시각화를 표시하기 위한 디스플레이 장치를 포함하는, 시스템.
  16. 제15항에 있어서, 상기 프로세서 시스템은
    복수의 투영들에 액세스하고,
    상기 획득된 복수의 투영들 중 적어도 제1 서브-복수의 획득된 투영들을 상기 정합된 물체의 표현으로 수정하도록 더 구성되며,
    상기 재구성의 생성은, 상기 획득된 복수의 투영들 중 적어도 상기 제1 서브-복수의 획득된 투영들 모두에 기초한 상기 재구성의 생성을 포함하는, 시스템.
  17. 제16항에 있어서, 상기 획득된 복수의 투영들 중 적어도 상기 수정된 제1 서브-복수의 획득된 투영들 모두에 기초한 상기 재구성의 생성은 3차원 영상의 생성을 포함하는, 시스템.
  18. 제16항 또는 제17항에 있어서, 상기 프로세서 시스템은
    디스플레이 장치를 이용하되,
    상기 수정된 제1 서브-복수의 획득된 투영들의 수정된 투영 값들의 직접적인 재구성을 생성하는 것,
    상기 수정된 제1 서브-복수의 획득된 투영 내의 상기 정합된 물체와 일치하는 복셀들을 대체하는 것,
    2D 슬라이스가 상기 물체의 적어도 하나의 특징과 일치하도록 상기 시각화를 방향 설정하는 것,
    상기 획득된 복수의 투영들 중 상기 적어도 하나의 투영의 디스플레이 상에 상기 물체의 그래픽 표현을 중첩하는 것, 및
    이들의 조합 중 적어도 하나를 포함하여 디스플레이를 위한 상기 시각화를 생성하도록 더 구성되는, 시스템.
  19. 제15항 내지 제18항 중 어느 한 항에 있어서, 상기 프로세서 시스템은
    상기 물체의 기하학적 형상, 부분들의 개수, 치수, 재료, 상기 재료와 X선의 상호작용, 움직임 자유도, 및 이들의 조합 중 적어도 하나를 포함하도록 상기 물체의 상기 파라미터들을 결정하도록 더 구성되는, 시스템.
  20. 제15항 내지 제19항 중 어느 한 항에 있어서,
    피사체 내에 배치되도록 구성된 상기 물체를 더 포함하고,
    상기 적어도 하나의 투영은 상기 피사체 및 위치된 물체에 대한 것인, 시스템.
  21. 영상에서 물체로 인한 아티팩트를 감소시키는 방법으로서,
    프로세서 시스템으로 하여금
    상기 물체의 파라미터들에 액세스하게 하고,
    상기 액세스된 파라미터들에 기초하여 상기 물체의 적어도 하나의 전방 투영을 생성하게 하며,
    상기 물체를 내부에 갖는 적어도 하나의 획득된 투영에 대해 상기 전방 투영에서의 상기 물체를 정합하게 하고,
    상기 적어도 하나의 획득된 투영을 상기 정합된 물체의 표현으로 수정하게 하며,
    상기 수정된 적어도 하나의 획득된 투영에 기초하여 재구성을 생성하도록 동작시키는 단계; 및
    상기 생성된 재구성의 시각화를 표시하는 단계를 포함하는, 방법.
  22. 제21항에 있어서, 상기 프로세서 시스템으로 하여금 상기 시각화를 생성하도록 동작시키는 단계를 더 포함하는, 방법.
  23. 제21항 또는 제22항에 있어서, 상기 프로세서 시스템으로 하여금 상기 물체를 피사체 내에 배치시키고 상기 피사체 및 상기 배치된 물체에 대한 상기 획득된 적어도 하나의 투영에 액세스하도록 동작시키는 단계를 더 포함하는, 방법.
  24. 제23항에 있어서, 상기 프로세서 시스템으로 하여금,
    상기 피사체 및 상기 위치된 물체의 복수의 투영에 액세스하게 하고,
    상기 액세스된 복수의 투영들의 각각의 투영을 수정하도록 동작시키는 단계를 더 포함하고,
    상기 재구성을 생성하는 단계는, 상기 수정된 적어도 하나의 획득된 투영과, 상기 액세스된 복수의 투영들의 상기 수정된 각각의 투영에 기초하는, 방법.
KR1020207029372A 2018-04-06 2019-04-05 영상에서의 아티팩트 감소를 위한 시스템 및 방법 KR20210013018A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862654038P 2018-04-06 2018-04-06
US62/654,038 2018-04-06
US16/375,292 US11138768B2 (en) 2018-04-06 2019-04-04 System and method for artifact reduction in an image
US16/375,292 2019-04-04
PCT/US2019/026014 WO2019195695A1 (en) 2018-04-06 2019-04-05 System and method for artifact reduction in an image

Publications (1)

Publication Number Publication Date
KR20210013018A true KR20210013018A (ko) 2021-02-03

Family

ID=68096033

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207029372A KR20210013018A (ko) 2018-04-06 2019-04-05 영상에서의 아티팩트 감소를 위한 시스템 및 방법

Country Status (8)

Country Link
US (3) US11138768B2 (ko)
EP (1) EP3776479A1 (ko)
JP (1) JP2021519646A (ko)
KR (1) KR20210013018A (ko)
CN (1) CN112041890A (ko)
AU (1) AU2019249243A1 (ko)
CA (1) CA3096393A1 (ko)
WO (1) WO2019195695A1 (ko)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11823380B2 (en) 2020-02-26 2023-11-21 Washington University Methods of image reconstruction to reduce artifacts in rapid CBCT scans
US20210090328A1 (en) * 2020-12-07 2021-03-25 Intel Corporation Tile-based sparsity aware dataflow optimization for sparse data
CN113628251B (zh) * 2021-10-11 2022-02-01 北京中科金马科技股份有限公司 一种智慧酒店终端监测方法
WO2023096836A1 (en) 2021-11-29 2023-06-01 Medtronic Navigation, Inc. System and method for identifying feature in an image of a subject
WO2023096834A1 (en) 2021-11-29 2023-06-01 Medtronic Navigation, Inc. System and method for identifying feature in an image of a subject
WO2023096831A1 (en) 2021-11-29 2023-06-01 Medtronic Navigation, Inc. System and method for identifying feature in an image of a subject
WO2023096835A1 (en) 2021-11-29 2023-06-01 Medtronic Navigation, Inc. System and method for identifying feature in an image of a subject
WO2024040280A1 (en) * 2022-08-26 2024-02-29 Curvebeam Ai Limited Method and system for removing foreign material from images

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2708179B2 (ja) 1988-07-06 1998-02-04 株式会社日立製作所 レジンモールド型高周波用半導体装置およびその製造方法
US5214686A (en) 1991-12-13 1993-05-25 Wake Forest University Three-dimensional panoramic dental radiography method and apparatus which avoids the subject's spine
WO1994004938A1 (en) 1992-08-14 1994-03-03 British Telecommunications Public Limited Company Position location system
US5592939A (en) 1995-06-14 1997-01-14 Martinelli; Michael A. Method and system for navigating a catheter probe
US5697377A (en) 1995-11-22 1997-12-16 Medtronic, Inc. Catheter mapping system and method
US6235038B1 (en) 1999-10-28 2001-05-22 Medtronic Surgical Navigation Technologies System for translation of electromagnetic and optical localization systems
US7366562B2 (en) 2003-10-17 2008-04-29 Medtronic Navigation, Inc. Method and apparatus for surgical navigation
US6493573B1 (en) 1999-10-28 2002-12-10 Winchester Development Associates Method and system for navigating a catheter probe in the presence of field-influencing objects
US6747539B1 (en) 1999-10-28 2004-06-08 Michael A. Martinelli Patient-shielding and coil system
US8644907B2 (en) 1999-10-28 2014-02-04 Medtronic Navigaton, Inc. Method and apparatus for surgical navigation
US6474341B1 (en) 1999-10-28 2002-11-05 Surgical Navigation Technologies, Inc. Surgical communication and power system
US6636757B1 (en) 2001-06-04 2003-10-21 Surgical Navigation Technologies, Inc. Method and apparatus for electromagnetic navigation of a surgical probe near a metal object
WO2003070101A1 (en) 2002-02-15 2003-08-28 Breakaway Imaging, Llc Gantry ring with detachable segment for multidimensional x-ray- imaging
DE10210646A1 (de) 2002-03-11 2003-10-09 Siemens Ag Verfahren zur Bilddarstellung eines in einen Untersuchungsbereich eines Patienten eingebrachten medizinischen Instruments
JP2005519688A (ja) 2002-03-13 2005-07-07 ブレークアウェイ・イメージング・エルエルシー 擬似同時多平面x線画像化システムおよび方法
CN1643371B (zh) 2002-03-19 2011-07-06 麦德特尼克航空公司 带有跟随数轴x射线源移动的探测器的计算机x光断层摄影装置
WO2003103496A1 (en) 2002-06-11 2003-12-18 Breakaway Imaging, Llc Cantilevered gantry apparatus for x-ray imaging
WO2004019279A2 (en) 2002-08-21 2004-03-04 Breakaway Imaging, Llc Apparatus and method for reconstruction of volumetric images in a divergent scanning computed tomography system
US8010177B2 (en) 2007-04-24 2011-08-30 Medtronic, Inc. Intraoperative image registration
EP2225723B1 (en) * 2007-12-18 2019-02-20 Koninklijke Philips N.V. Features-based 2d/3d image registration
US11284846B2 (en) 2011-05-12 2022-03-29 The John Hopkins University Method for localization and identification of structures in projection images
US9202296B2 (en) * 2011-09-16 2015-12-01 Caresteam Health, Inc. Metal artifacts reduction for cone beam CT
DE102012212774A1 (de) * 2012-07-20 2014-01-23 Siemens Aktiengesellschaft Verfahren zur Korrektur von Metallartefakten und Röntgeneinrichtung
US9165362B2 (en) 2013-05-07 2015-10-20 The Johns Hopkins University 3D-2D image registration for medical imaging
US10083543B2 (en) * 2013-12-20 2018-09-25 Carestream Dental Technology Topco Limited Metal artifacts reduction for cone beam CT using image stacking
US9498179B1 (en) * 2015-05-07 2016-11-22 General Electric Company Methods and systems for metal artifact reduction in spectral CT imaging
DE102015208929B3 (de) 2015-05-13 2016-06-09 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren zur 2D-3D-Registrierung, Recheneinrichtung und Computerprogramm
JP2017000664A (ja) * 2015-06-16 2017-01-05 コニカミノルタ株式会社 画像処理装置、断層画像生成システム及びプログラム
EP3389544A4 (en) 2015-12-14 2019-08-28 Nuvasive, Inc. 3D VISUALIZATION DURING OPERATION WITH REDUCED RADIATION EXPOSURE
US10368956B2 (en) 2016-02-16 2019-08-06 The Johns Hopkins University MR-levelcheck-2: method for localization of structures in projection images
US20180070902A1 (en) * 2016-09-14 2018-03-15 Carestream Health, Inc. Apparatus and method for 4d x-ray imaging
DE102017203438A1 (de) 2017-03-02 2018-09-06 Siemens Healthcare Gmbh Verfahren zur Bildunterstützung einer einen minimalinvasiven Eingriff mit einem Instrument in einem Eingriffsbereich eines Patienten durchführenden Person, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US10963698B2 (en) 2018-06-14 2021-03-30 Sony Corporation Tool handedness determination for surgical videos

Also Published As

Publication number Publication date
WO2019195695A1 (en) 2019-10-10
JP2021519646A (ja) 2021-08-12
CA3096393A1 (en) 2019-10-10
AU2019249243A1 (en) 2020-11-12
US11756242B2 (en) 2023-09-12
EP3776479A1 (en) 2021-02-17
US20230419565A1 (en) 2023-12-28
US20220028131A1 (en) 2022-01-27
US20190311505A1 (en) 2019-10-10
CN112041890A (zh) 2020-12-04
US11138768B2 (en) 2021-10-05

Similar Documents

Publication Publication Date Title
US11779399B2 (en) Method and apparatus for image-based navigation
US11756242B2 (en) System and method for artifact reduction in an image
US10650513B2 (en) Method and system for tomosynthesis imaging
EP2807635B1 (en) Automatic implant detection from image artifacts
CN113164150A (zh) 基于图像的设备跟踪
US11903751B2 (en) System and method for displaying an image
WO2024084344A2 (en) Method to superimpose rendering over spine hardware implants on images produced by cbct scanner system