JP2023175771A - 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション - Google Patents

2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション Download PDF

Info

Publication number
JP2023175771A
JP2023175771A JP2023147235A JP2023147235A JP2023175771A JP 2023175771 A JP2023175771 A JP 2023175771A JP 2023147235 A JP2023147235 A JP 2023147235A JP 2023147235 A JP2023147235 A JP 2023147235A JP 2023175771 A JP2023175771 A JP 2023175771A
Authority
JP
Japan
Prior art keywords
image
dimensional
marker
medical imaging
imaging modality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023147235A
Other languages
English (en)
Inventor
ホラデイ,マシュー
Holladay Matthew
ゴール,ヴィカッシュ
Goel Vikash
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Centerline Biomedical Inc
Original Assignee
Centerline Biomedical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Centerline Biomedical Inc filed Critical Centerline Biomedical Inc
Publication of JP2023175771A publication Critical patent/JP2023175771A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/40Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment with arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M5/00Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests
    • A61M5/007Devices for bringing media into the body in a subcutaneous, intra-vascular or intramuscular way; Accessories therefor, e.g. filling or cleaning devices, arm-rests for contrast media
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • G06T3/147
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3995Multi-modality markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10064Fluorescence image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Multimedia (AREA)
  • Hematology (AREA)
  • Anesthesiology (AREA)
  • Vascular Medicine (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】2次元画像投影を用いてトラッキングシステムを画像空間に対応付けるためのシステムおよび方法に関する。【解決手段】方法は、患者とマルチモーダルマーカーとを含むように2次元視野を含む医用イメージングモダリティを使用した第1の画像の取得を含む。第2の画像は、医用イメージングモダリティを用いて取得される。第2の画像は、患者とマルチモーダルマーカーとを含み、第1の画像とは合わない角度でのものである。マルチモーダルマーカーの複数の所定部分は、第1の画像および第2の画像で可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのセンサーに対する位置と向きが既知である。本方法は、マルチモーダルマーカーの複数の所定部分の3次元位置を推定することも含む。本方法は、トラッキングシステムの3次元座標系を医用イメージングモダリティの3次元座標系に対応付けるためのアフィン変換を決定することも含む。【選択図】図1

Description

関連出願へのクロスリファレンス
本出願は、2019年4月4日に出願され、発明の名称を「SPATIAL REGISTRATION OF TRACKING SYSTEM WITH AN IMAGE USING TWO-DIMENSIONAL IMAGE PROJECTIONS(2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション)」とする米国特許仮出願第62/829,394号の優先権を主張するものであり、その内容全体を本明細書に援用する。
技術分野
本開示は、広義には、2次元画像投影を用いてトラッキングシステムを画像空間に対応付けるためのシステムおよび方法に関する。
画像レジストレーションとは、空間変換を決定して2つ以上の画像座標系を互いに整合(alignment)させるプロセスである。一例として、コンピュータ断層撮影(CT)画像とコーンビームコンピュータ断層撮影(CBCT)画像とのレジストレーションがある。
例えば、CT画像については、施術(例えば、研究または治療)の数日前または数週間前など、処置に先立って取得することができる。CBCT画像は、施術の直前または施術時に取得されることがある。このCBCT画像のセットを数学的に処理し、先行するCT画像と空間的に対応付ける。このようなCTとCBCTとのレジストレーションは、計画、診断、治療(例えば、インターベンショナルラジオロジー、画像誘導治療)などの様々な目的で使用される。しかしながら、CBCT画像を取得するための機器が利用できない場合がある。また、CBCTイメージングでは一般に、患者や医療従事者にとってかなりの放射線エネルギーを必要とする。
本開示は、広義には、2次元画像投影を用いてトラッキングシステムを画像空間に対応付けるためのシステムおよび方法に関する。
一例として、方法は、医用イメージングモダリティを使用して、第1の2次元投影画像を取得することを含む。第1の画像は、患者とマルチモーダルマーカーとを含む2次元視野を含む。また、この方法は、医用イメージングモダリティを使用して、第2の2次元投影画像を取得することを含む。第2の画像は、患者とマルチモーダルマーカーとを含み、第1の投影画像とは合わない角度でのものである。マルチモーダルマーカーの複数の所定部分は、第1の投影画像および第2の投影画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのセンサーに対する位置と向きが既知である。本方法は、第1の2次元投影画像および第2の2次元投影画像における複数の所定部分の位置に応じて、医用イメージングモダリティの座標系に対するマルチモーダルマーカーの複数の所定部分の3次元位置を推定することも含む。また、本方法は、マルチモーダルマーカーの複数の所定部分それぞれの推定された位置と、少なくとも1つのセンサーとマルチモーダルマーカーの複数の所定部分との既知の関係とに基づいて、トラッキングシステムの3次元座標系を医用イメージングモダリティの3次元座標系に対応付けるためのアフィン変換を決定することを含む。
別の例として、システムは、データとプロセッサによって実行可能な命令とを格納するための1つ以上の非一過性のコンピュータ読み取り可能な媒体を含む。データは、患者について取得された、先行する3次元画像データを含む。また、データは、患者とマルチモーダルマーカーとを含むように医用イメージングモダリティによって取得された少なくとも1つの2次元画像を含む2次元画像データを含む。マルチモーダルマーカーの複数の所定部分は、少なくとも1つの2次元画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのトラッキングセンサーに対して位置と向きが既知である。命令は、
少なくとも1つの2次元画像の各々における複数の所定部分のそれぞれの位置に応じて、医用イメージングモダリティの座標系に対するマルチモーダルマーカーの複数の所定部分の3次元位置を推定する工程と、
マルチモーダルマーカーの複数の所定部分それぞれの推定された位置と、少なくとも1つのトラッキングセンサーとマルチモーダルマーカーの複数の所定部分との間の既知の関係とに基づいて、トラッキングシステムの3次元座標系を医用イメージングモダリティの3次元座標系に対応付けるためのアフィン変換を決定する工程と、
を含む方法を実行するようにプログラムされている。
別の例として、方法は、医用イメージングモダリティを使用して、第1の2次元投影画像を取得することを含み、第1の画像は、患者とマルチモーダルマーカーとを含む2次元視野を含む。また、この方法は、医用イメージングモダリティを使用して、第2の2次元投影画像を取得することを含み、第2の画像は、患者とマルチモーダルマーカーとを含み、第1の投影画像とは合わない角度でのものである。マルチモーダルマーカーの複数の所定部分は、第1の投影画像および第2の投影画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのセンサーに対する位置と向きが既知である。また、この方法は、第1の2次元投影画像および第2の2次元投影画像の各々に対応する先行する3次元画像からの複数の順投影をそれぞれ作成することを含む。また、この方法は、第1の投影画像および第2の投影画像それぞれを順投影と対応付けすることに基づいて、医用イメージングモダリティの座標系から事前の3次元画像の座標系へのアフィン変換を決定することを含む。
さらに別の例として、システムは、データとプロセッサによって実行可能な命令とを格納するための1つ以上の非一過性のコンピュータ読み取り可能な媒体を含むことができる。データは、患者について取得された、先行する3次元画像データを含む。また、データは、患者とマルチモーダルマーカーとを含むように医用イメージングモダリティによって取得された少なくとも1つの2次元画像を含む2次元画像データを含む。マルチモーダルマーカーの複数の所定部分は、少なくとも1つの2次元画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのトラッキングセンサーに対する位置と向きが既知である。命令は、
2次元画像の各々に対応する先行する3次元画像からの複数の順投影をそれぞれ作成することと、
各々の2次元画像を複数の順投影にそれぞれ対応付けることに基づいて、医用イメージングモダリティの座標系と先行する3次元画像の座標系との間のアフィン変換を決定することと、
を含む方法を実行するようにプログラムされている。
図1は、トラッキングシステムのセンサーを医用イメージングモダリティの空間座標系に対応付ける方法の一例を示す流れ図である。 図2は、医用イメージングモダリティの空間座標系から先行する3次元画像の空間座標系に対応付けるための流れ図である。 図3は、マーカーの一例を示す図である。 図4Aは、マルチモーダルマーカーの一例を示す図である。 図4Bは、マルチモーダルマーカーの一例を示す図である。 図5は、別のマルチモーダルマーカーの例を示す。 図6は、マーカーパッドデバイスの一例を示す。 図7Aは、医用イメージングモダリティの概略例を示す。 図7Bは、医用イメージングモダリティの概略例を示す。 図8は、アフィン変換を生成するためのシステムの一例を示す。 図9は、1つ以上のアフィン変換の使用または修正を制御するレジストレーションマネージャの一例を示す。 図10Aは、アフィン変換に従って所与のドメインで対応付けられた情報のグラフィカルな表現を示す。 図10Bは、アフィン変換に従って所与のドメインで対応付けられた情報のグラフィカルな表現を示す。
本開示は、広義には、トラッキングシステムをインターベンショナル画像空間に対応付けるための方法およびシステムに関する。本明細書で開示する手法は、多くの既存の手法と比較して、使用する電離放射線を抑えて実施することができるものである。
本方法では、2以上のモダリティで検出可能なフィデューシャルマーカーを含むマーカーデバイス(例えば、マルチモーダルマーカー)を利用する。例えば、マーカーデバイスは、医用イメージングモダリティによって生成される画像で見えるパターンを提供するための第1のフィデューシャルマーカーを含んでもよい。医用イメージングモダリティは、患者の一部と第1のフィデューシャルマーカーとを含む2次元投影として画像を提供するように構成された、フルオロスコピー、X線あるいは、超音波などの他のモダリティであってもよい。いくつかの例では、マーカーデバイスは、医用イメージングモダリティによって取得された後続の画像で第1のパターンが見えるか否かを選択するように構成可能であってもよい。また、マーカーデバイスは、3次元空間トラッキングシステムによって検出可能な1つ以上の第2のフィデューシャルマーカー(例えば、1つ以上のセンサー)を含む。第2のフィデューシャルマーカーは、第1のフィデューシャルマーカーの空間位置に対して既知の所定の空間位置および向きで配置されている。これは、医用イメージングモダリティによって取得された画像から識別可能である。
別の例として、イメージングモダリティを使用して、2次元画像投影を取得し、画像を(例えば、DICOM画像ファイルとして)メモリに格納することができる。各々の画像は、マーカーデバイスの第1のフィデューシャルマーカーに対応するマーカーパターンと患者とを含む視野を含む。したがって、マーカーは、取得時に、取得された画像内でマーカーパターンを可視化するために(例えば、放射線不透過性に)構成される。それぞれの画像は、各画像に含まれるパターンの複数の所定部分の位置を特定して識別するように処理される。マーカーパターンの識別された部分(例えば、点または領域)を、医用イメージングモダリティの3次元空間座標系における対応する3次元位置に変換する。アフィン変換を計算し、マーカーデバイスの第1および第2のフィデューシャルマーカーのそれぞれの間の空間的関係に基づいて、センサー位置を医用イメージングモダリティの座標系にマッピングする(または、イメージングモダリティの座標系におけるマーカーパターンの位置をトラッキングシステムの座標系にマッピングする)。上述したように、空間的関係は、トラッキングデバイスに実装された第2のフィデューシャルマーカーのセンサーと第1のフィデューシャルマーカーのパターンのジオメトリに基づいて、すでにわかっている(メモリに格納されている)。このように、変換によって、システムおよび方法が、少数(例えば、2つまたは3つ)の投影画像に基づいて、トラッキングシステムによって提供される位置と向きの情報を、医用イメージングモダリティの座標系に対応付ける(またはその逆をする)ことができ、その結果、多くの既存の手法(例えば、コーンビームコンピュータトモグラフィ)と比較して、電離放射線が大幅に低減される。
そのような変換の決定後、第2のアフィン変換を決定して、医用イメージングモダリティの空間座標系から、術前3次元画像スキャンに対応するものなどの別の3次元空間座標系にマッピングしてもよい。例えば、術前3次元画像スキャンは、コンピュータ断層撮影画像や磁気共鳴画像などの高解像度のイメージング技術であってもよく、これらは、処置の数時間前、数日前あるいは数週間前に実施されることもある。上述の医用イメージングモダリティを用いて取得された第1および第2(またはそれ以上)の投影画像を、術前3次元画像スキャンから作成された対応する投影(例えば、同一の角度に沿ったもの)に対応付けることによって、第2のアフィン変換を決定してもよい。
図1は、トラッキングシステムの座標系を医用イメージングモダリティ(例えば、フルオロスコピーまたはX線システム)の座標系に対応付けるための方法100の一例を示す流れ図である。1つ以上のセンサーがマルチモーダルマーカーデバイスに統合されており、このマルチモーダルマーカーデバイスには、互いの空間的関係がわかっている複数のフィデューシャルマーカーが配置されている。フィデューシャルマーカーは、トラッキングシステムによって検出可能な一組のマーカー(例えば、センサー)と、イメージングモダリティによって取得される画像で見える別の一組のマーカー(例えば、放射線不透過性マーカー)とを含む。このため、本方法について、トラッキングシステムおよび医用イメージングモダリティとの関連で説明する。
一例として、医用イメージングモダリティは、2次元の画像投影を表す画像データ(例えば、DICOM画像ファイル)を提供するように構成されている。例えば、医用イメージングモダリティは、フラットパネルX線システム、バイプレーンX線システム、Cアームフルオロスコピー、超音波イメージングシステムなどのX線システムとすることができる。
別の例として、マーカーデバイスは、トラッキングシステムの座標系における3次元位置を示すように構成された1つ以上のセンサーを含む。例えば、トラッキングシステムは、電磁場を発生させる電磁トラッキングシステムである。各センサーは、電磁場に基づいてセンサー信号を提供し、このセンサー信号が各センサーの位置と向きの情報に変換される。電磁場トラッキングシステムの一例が、カナダ国オンタリオ州のNorthern Digital, Inc.から市販されている。トラッキングシステムは、各センサーがセンサー位置を実質的にリアルタイムで決定する(例えば、センサーの位置と向きとを記述するベクトルを提供する)のに十分な出力サンプルレート(例えば、60サンプル/秒)で、トラッキングデータを提供することができる。このように、トラッキングシステムは、トラッキングデータの各フレームを、このトラッキングデータがトラッキングシステムで取得されるリアルタイムのトラッキングデータを同じように表すことができるような方法で、処理することができる。これは、本明細書で開示するようなイメージングシステムの座標系に対応付けることが可能なものである。いくつかの例では、各センサーをトラッキングシステムで検出し、センサーを5または6の自由度で追跡できるようにすることができる。他の例では、他のタイプのセンサーとトラッキングシステムを使用してもよい。
102において、方法100は、医用イメージングモダリティを使用して第1の2次元投影画像を取得することを含む。したがって、第1の画像は、患者(患者の身体の着目領域)とマルチモーダルマーカーとを含む視野に対する2次元画像投影を含む。本明細書で開示するように、マルチモーダルマーカーは、トラッキングシステムの座標空間における3次元位置を決定するためのセンサーと、医用イメージングモダリティによって検出可能な第2のマーカー(例えば、フィデューシャルパターン)と、を含む。センサーと第2のマーカーは、位置同期(co-locate)されていてもよいし、アプリオリに互いに既知である一定の相対位置にあってもよい。
104において、本方法は、医用イメージングモダリティを用いて第2の2次元投影画像を取得することを含む。第2の画像も患者とマルチモーダルマーカーとを含むが、第1の画像が取得される角度とは合わない角度(例えば、約90度以下)から取得される。画像の総数はいくつでもよいが、CBCTなどの他のモダリティと比較して電離放射線への曝露を抑えるために、10枚以下(例えば、5枚または2枚)など数を少なくしている。
一例として、イメージングモダリティは、右前斜位投影、左前斜位投影ならびに他の投影(例えば、前後方向の投影)を含む画像を(102および104で)取得するように構成することが可能である。各画像では、マルチモーダルマーカーデバイスの放射線不透過性フィデューシャルマーカーの所定部分が見えている。マルチモーダルマーカーデバイス上には、1つ以上の放射線不透過性フィデューシャルマーカーが存在してもよく、その各々が、トラッキングシステムによって検出可能な1つ以上のトラッキングセンサーそれぞれに対する位置と向きが既知である。本明細書で使用する場合、放射線不透過性とは、イメージングモダリティ(例えば、2次元(2D)医用イメージングモダリティ456)によって得られる対応する画像でオブジェクトを可視化できるだけの電離電磁放射を通すことができないことをいう。このため、放射線不透過性のオブジェクトは、イメージングモダリティに対して電波密度の高い材料となり得る。2枚の画像が取得される例では(例えば、前後方向および横方向の投影)、マルチモーダルマーカーデバイスは、互いに離れて配置された放射線不透過性マーカー(例えば、球体)を3つ含み、これらのマーカーは、各々の画像で全部が同一線上にくるわけではないように配置される場合がある。別の例では、1つのマーカーを使用することもできるが、医用イメージングモダリティでは、異なる相対投影角度から少なくとも3枚の画像を取得する必要がある。
106では、医用イメージングモダリティの座標系に対する各々のマルチモーダルマーカーの所定部分それぞれの3次元位置を、各々の画像における当該所定部分の位置に基づいて推定する。106では、トラッキングシステム空間で一組の点を提供するなど、マルチモーダルマーカーの所定部分それぞれの位置がトラッキング座標系でも決定される。このように、1つ以上のマーカーの同一部分(例えば、それぞれの空間ドメインにおける座標)が、術中画像の座標系とトラッキングシステムの座標系の両方で識別される。点の数は、使用するマーカーデバイスの構造や数に応じて変化する。
一例として、102および104でイメージングモダリティから取得された画像に表れるフィデューシャルマーカーは、長方形状(または他の識別可能な形状)で、その辺同士が交わる箇所にそれぞれ角があるマーカー境界線の形態の放射線不透過性材料を含んでもよい。例えば、放射線不透過性の材料は、ArUcoマーカー(例えば、Open Source Computer Vision Library: http://opencv.orgを参照のこと)の形態で、マーカーデバイスに設けられる。このようにして、確立された画像処理アルゴリズム(例えば、OpenCVライブラリのdetectMarkers()関数)をインプリメントし、ArUcoタイプのフィデューシャルマーカーが表現されたものを含む画像投影(102および104で取得された画像)から、それぞれの角を検出して識別することができる。また、この画像処理アルゴリズムによって、他の付随するパラメータを決定してもよい。このようなArUcoマーカーの例を、図3、図4A、図7Aおよび図7Bに示す。図7Aおよび図7Bとそれに対応する説明は、医用イメージングモダリティの術中空間座標系と(術前画像空間の)術前空間座標系とを対応付けることができるようにするために、そのようなマーカーのそれぞれの角の位置を、術中医用イメージングモダリティの3次元座標でどのように特定するかという例を示すものである。
ArUcoタイプのマーカーに代えて用いるか、これに加えて用いることができる第2の例として、放射線不透過性材料は、球、円錐などの形をとるなど、マーカーデバイス上にあるかマーカーデバイスに埋め込まれた3次元オブジェクトの形であってもよい。球体は、投影2D画像の視野角とは関係なく、所与の同一形状を示すオブジェクトの一例である。この例では、球体は各々、マーカーデバイスに対して固定されたトラッキングセンサーの向きと座標に対する空間位置がわかっている。このため、それぞれの球体に対して固定された既知のオフセットを定義するセンサー用の変換を乗算することによって、各々の球体(または他の3Dオブジェクト)系の点を106においてトラッキング座標で計算することができる。各々が3つの球体を含む3つのマーカーデバイスが設けられた例では、106での推定により、トラッキングシステム座標系でそれぞれ3つの点からなる3つの組が決定される。同様に、各球体の座標位置は、(102および104で)取得される2D画像のそれぞれ(少なくとも2つ)について決定される。例えば、トラッキングセンサーごとに(例えば、本明細書で開示するClosestPoint法を用いて)球体の位置を特定し、この球体の位置(例えば、各球体の中心)を、それぞれのセンサーに接続されたメモリに格納する。結果として、トラッキング座標系で決定されるのと同数の点(各球体について)が得られる。
108では、アフィン変換を決定し、トラッキングシステムの座標系を医用イメージングモダリティ(本明細書では術中イメージングモダリティとも称する)の座標系にマッピングする。例えば、この変換は、トラッキング座標系と術中座標系の各々について106で提供された複数組の点を整合させるための位置同期法を適用することによって決定される。本明細書で開示するように(例えば、図8の変換計算器を参照)、位置同期法のいくつかの例として、誤差最小化関数(例えば、単一値分解)、基底変換関数ならびに108で変換を決定するのに用いられる場合がある他の関数があげられる。
いくつかの例では、医用イメージングモダリティは、回転中心を有するCアームを含む。このため、医用イメージングモダリティの座標系の原点を、Cアームの回転中心として定義してもよい。医用イメージングシステムを、医用イメージングモダリティ(例えば、Cアーム)の空間座標系を定義するのに用いられる対応の空間パラメータを有するピンホールカメラとしてモデリングしてもよい。例えば、Cアームの空間パラメータ(例えば、回転中心、Cアームの回転角、Cアームの半径)を手動で測定してもよいし、製造業者から提供を受けてもよいし、DICOM画像ファイルのフィールドから誘導してもよい。108で決定される変換については、106で決定されるマーカーの所定部分について推定された位置に基づくものとすることが可能であり、マーカーの所定部分とマーカーデバイスのトラッキングセンサーとの間の固定された既知の空間的関係に基づくものとすることができる。一例として、マーカーの所定部分とセンサーとの間の固定された関係を製造時に決定し、マーカーに印刷してもよい。別の例として、関係を(例えば、手動で)測定し、108で変換を決定するようにプログラムされたコンピュータに(例えば、ユーザーインタフェースを介して)入力してもよい。他の例では、各点の座標を、各マーカーの(例えば、セントロイドまたは中心にある)ピクセル位置に応じて、画像データ内の相対座標として自動的に決定することができる。
図2は、医用イメージングモダリティの空間座標系から、(例えば、DICOMまたは他の画像ファイルとして)メモリに格納されているものなどの先行する3次元画像の空間座標系に対応付けるための方法150の流れ図である。例えば、所定の患者について、3次元医用イメージングモダリティで、先行する3次元画像を術前に取得することができる。一例として、術前画像データを、対応する手術の数週間または数ヶ月前に取得し得るなど、患者の着目領域についての術前動脈CTスキャンに対応させることができる。また、MRI、超音波検査、陽電子放出断層撮影など、他のイメージングモダリティを用いて3次元画像データを提供することもできる。このようなスキャンは、プロテーゼの大きさを決定し、手術やその他の介入について計画するための手術のワークフローにおける術前計画では一般的なことである。
いくつかの例では、術前画像データに取り込まれた1つ以上の解剖学的構造を、術前画像の座標系におけるそれぞれの3次元モデルに変換してもよい。一例として、モデルは、管状の解剖学的構造(例えば、患者の血管)を数学的に記述する非明示的モデルであり、例えば、管状構造の中心線と表面とを含む。非明示的モデルは、細長い解剖学的構造に対するロフテッドBスプライン(基底スプライン)関数に対応するなどの小さなパラメータセットを含むことができる。一例として、本明細書に援用する、発明の名称が「Automated Centerline Extraction Method and Generation of Corresponding Analytical Expression and Use Thereof」である米国特許公開第2011/0026793号の開示内容に従って非明示的モデルデータを計算するように、解剖学的モデル作成装置をプログラムすることができる。管状の解剖学的構造に対する非明示的モデルを作成する別の例がAnalytical centerline extraction and surface fitting using CT scans for aortic aneurysm repair, Goel, Vikash R, Master's Thesis, Cornell University (2005)に開示されており、これも本明細書に援用する。他のタイプの幾何学表現を利用して、非明示的モデルを提供することも可能である。例えば、ロフト処理した楕円や三角メッシュを表すパラメータを生成し、3次元座標系で患者の着目される解剖学的構造を表す解剖学的モデルデータを提供することができる。生成された3次元メッシュを、術前イメージングモダリティによって取得された3次元画像に加えて、またはこれに代えて、メモリに格納してもよい。
152において、本方法は、取得された画像(例えば、102および104で取得された第1および第2の画像)に基づいて、先行する3次元画像ボリュームからそれぞれの順投影を作成することを含む。例えば、取得された2次元画像をそれぞれ、同様の角度からの対応する3次元順投影に対応付ける。一例として、フルオロスコピーシステムからの2次元のLAO画像およびRAO画像を(例えば、平行移動および回転によって)整合させることによって、そのような画像をCT画像ボリュームから作成される対応のLAO投影およびRAO投影に対応付ける。投影角度のレジストレーションは、手動でのアライメントおよび/または自動で行うことができるものである。
術前3次元画像において解剖学的構造(例えば、血管)をモデリングするために3次元メッシュが生成される例では、そのメッシュを用いて、術中画像(例えば、102および104で取得されたもの)に対するアライメントを行ってもよい。術前画像から生成されたメッシュに、3D投影行列を適用してもよい。例えば、術中イメージングシステムをピンホールカメラとしてモデリングするための適切なパラメータがわかっている場合には、「透視」投影行列が使用される。他の例では、「平行」投影行列が使用される。マーカーデバイスが放射線不透過性の球体を含む例では、マーカーデバイス上の球体が術中イメージングシステムの焦点距離に対して近接しているため、平行投影行列の適用は十分に正確なものでなければならない。各々の術中画像についてCアームの角度がわかっている場合、術中画像ごとにその角度に一致させてメッシュの1つを3D投影する。Cアームの角度がわからない場合、異なる角度から複数の3D投影を行うことができ、それぞれの3D投影とそれぞれの2次元画像との間の「ベストフィット」マッチを手動または自動で選択することができる。最終的には、各画像ペアが、2D術中画像と、3Dメッシュから作成された2D投影を含む画像ペアとなる。
154において、本方法は、(例えば、102および104で取得された)第1および第2の投影画像と152で決定された順投影それぞれとの対応付けに基づいて、医用イメージングモダリティの座標系から先行する3次元画像の座標系へのアフィン変換を決定することを含む。154で生成される変換を、メモリに格納することができる。
一例として、位置同期法を(例えば、プロセッサによって実行可能な命令として)実装し、術中2D画像空間から術前3D画像空間へ空間データをマッピングするための変換を154で決定することができる。例えば、変換は、位相同期法を適用し、2D医用画像および先行する3D画像の座標系の各々について識別される複数組の点を整合させることによって、154で決定される。(例えば、152で作成される)3D投影画像および(102および104で)2D医用イメージングモダリティによって取得される画像の各々において、1つ以上の組の共通の点が識別される。一例として、これらの点は、解剖学的ランドマークまたは他の識別可能なフィデューシャルポイント、例えば、背骨上の骨のランドマーク、両方の画像セット画像で見える小さな石灰化、あるいは、術中画像と術前画像の両方で造影剤が使用される場合などの血管上の点であってもよい。術前画像は3次元空間にあるため、ユーザーは直交する3つの断像(横断像、冠状断像、矢状断像)を用いて点を識別し、術前の3次元座標系におけるx,y,zの位置を直接測定することができる。点の識別については、各画像において手動で行ってもよいし、自動特徴抽出方法を用いてもよい。
108での決定と同様に、154での変換を決定するのに用いることができる位置同期法の例として、誤差最小化関数(例えば、単一値分解)、基底変換関数ならびに他の関数があげられる。一例では、同一の関数を呼び出して、それぞれの変換を生成し、より効率的な格納と計算を提供することができる。
例として、108および154で生成された変換を各々別の変換として格納してもよいし、一緒に集約して、トラッキングシステムの座標系におけるセンサーのレジストレーションを、画像ボリュームの3D座標系で表現および視覚化できるようにしてもよい。(108および154で決定された)変換が別々に維持されている例では、他方に影響を与えることなく、変換の一方を変更する機能が得られる。例えば、第2の工程(例えば、フルオロスコピーから術前CT)が手動レジストレーションから自動レジストレーションに変更されても、手法は同じであり、図1の変換生成方法100を変更する必要はない。また、図1の変換生成方法が変更されても、他の変換生成方法150を変更する必要はない。
これらの変換が別々に保たれている例では、トラッキングセンサーデータに基づいてオブジェクトをレンダリングする際に、2つの変換を乗算して出力の視覚化を生成してもよい。この乗算の詳細(例えば、順序や、変換と逆変換のどちらで乗算するか)は、断像がトラッキングシステム空間でレンダリングされているのか、イメージングモダリティ空間でレンダリングされているのか、先行する3次元(例えば、CT)画像空間の座標空間でレンダリングされているのかに依存する。
別の例として、術前CT空間で出力の視覚化をレンダリングするにあたり、骨と血管系のモデル(例えば、術前CT画像空間で作られたもの)を変換なしでレンダリングすることができる。EM空間で追跡されるもの(カテーテル、ガイドワイヤーなど)には、両方の変換が適用されることになろう。一例として、トラッキングシステム空間でレンダリングする場合、骨と血管系のモデル(術前のCT画像空間にある)には両方の変換の逆を適用し、トラッキングシステム空間で追跡されるもの(例えば、カテーテル、ガイドワイヤーなど、1つ以上のトラッキングセンサーを有するオブジェクト)には、変換を適用しないことになろう。さらに、イメージングモダリティ空間でレンダリングする場合の例(例えば、フルオロスコピーなど)では、骨と血管系のモデルには、(例えば、154で決定される)イメージングモダリティから術前CTへの変換の逆変換が適用され、トラッキングセンサーによってEM空間で追跡されるもの(例えば、カテーテル、ガイドワイヤーなど)には、(例えば、108で決定される変換)トラッキングシステムからイメージングモダリティへの変換が適用されることになろう。
図3は、フィデューシャルマーカー200の一例を示す。この例に示すように、このマーカーは黒と白の色(例えば、二値)を含み、周縁全体の各辺に沿って太くて黒い長方形(例えば、正方形)の境界線202を含む(例えば、ピクセル1つ以上の厚さなどの厚さtを有する)。マーカー200には、内側に、AcUcoライブラリによるものなど、マーカーの向きおよび/または他の識別的な特徴を定義するのに使用できる記号204および206が含まれる。
図4Aおよび図4Bは、マルチモーダルマーカーデバイス250の一例を示す。マルチモーダルマーカーは、フルオロスコピーまたはX線などの2Dイメージングモダリティを用いた第1および第2の画像の取得時に、患者に対して固定することができるものである(例えば、患者の身体に取り付けられる)。図4Aは、フィデューシャルマーカー(例えば、図3のマーカー)254を白色の境界線256より内側に配置して、白い境界線とフィデューシャルマーカーの太くて黒い境界線258(例えば、点線と白い境界線256との間にある)との間にコントラストを持たせたマーカーデバイス250の一方の側面252を示している。記号260および262は、黒い境界線258から離れてフィデューシャルマーカー上にある。
図4Bに示すように、マーカーデバイス250の他方の側面の表示面268から見て、1つ以上のトラッキングセンサー(例えば、電磁センサー)270が、フィデューシャルマーカー254の角264に対して既知の位置と向きで、マーカーデバイス250に取り付けられている。一例では、1つ以上のセンサー270は、それぞれ複数の自由度(DOF)を空間的に検知することができる。例えば、1つ以上のセンサー270を、本明細書で開示するような6つのDOFを検知するように構成することができる。一例では、電磁トラッキングシステムを使用して、センサー270の位置を特定することができる。トラッキングシステムを用いることで、電磁場に応答してセンサーからトラッキングシステムに提供されるセンサー信号に基づいて、各センサー270の位置と向きを決定することができるようになる。3次元空間における各センサーの位置と向きを追跡するように構成された他のタイプのトラッキングシステムは、他の実施例で使用することができる。
別の例では、マルチモーダルマーカーは、医用イメージングモダリティによって取得された画像においてマーカーの表現黒色部分を可視化するための材料(例えば、放射線不透過性造影剤などの放射線不透過性材料)を保持するように構成された側面252と268との間のチャンバーを含むことができる。本明細書で開示するように、このチャンバーは、マーカー用の長方形の太い境界線に沿って設けられ、この境界線を確めて、長方形の辺が交わる箇所にある角をそれぞれ定める。これらの角については、取得された画像内でその位置を特定することができる。
例えば、マーカーデバイス250は、放射線不透過性材料をチャンバーに出し入れすべくチャンバーにアクセスするための少なくとも1つのポートを(例えば、表面252、268または装置の縁のうちの1つに)含む。このため、各チャンバーを造影剤で満たし、医用イメージングモダリティによって取得される2次元投影画像に識別可能なパターンを作成することができる。このように、材料がチャンバー内にあるときは、フィデューシャルマーカーの黒い部分が医用画像で可視化され、放射線不透過性が取り除かれると、黒い部分が白い部分と実質的に同じように可視化される。例えば、処置時の以後のイメージングに干渉しないように、レジストレーションの完了後(例えば、少なくともレジストレーション用に102および104で画像が取得された後)、造影剤を排出し、場合によっては透明な生理食塩水でフラッシュする。他の例では、処置の最初から最後まで放射線不透過性材料はそのままである。
AruCoタイプのマーカーを含まない組合せマーカーデバイス300の他の例を、図5および図6に示す。図5の例では、組合せマーカーデバイス300は、基板304内に配置された複数の放射線不透過性フィデューシャリーオブジェクト302を含む。放射線不透過性フィデューシャリーオブジェクト302は各々、所定の幾何学的形状を有し、互いに所定の幾何学的関係で配置されている。例えば、放射線不透過性オブジェクト302を、所定の角度方向と空間的配置(例えば、スカラの直角三角形として構成されている)になるような球体または他の形状として実装することができる。したがって、各々の放射線不透過性オブジェクト302を、対応する2Dイメージングモダリティ(例えば、フルオロスコピー、バイプレーンX線などによって処置の際に得られる)で識別することができる。
上述したように、それぞれのオブジェクト302に利用される材料の種類は、(例えば、102および104でのような2D画像を取得するために)用いられるイメージングモダリティに応じて変えることが可能である。マーカーデバイス300は、マルチモーダルマーカーであり、そのようなものとして、トラッキングシステムによって検出可能な1つ以上のセンサー306も含む。各センサー306は、それぞれの放射線不透過性オブジェクト302の幾何学形状に対して所定の空間的関係(例えば、距離および角度)になるように寸法が設定され、位置が決められる。例えば、センサー306は、オブジェクト302の幾何学的関係に対して計算可能な一対の軸の原点に配置されるセンサーコイルを含むことができる。さらに、センサー本体306は、軸308に沿ってのびるか、それぞれの放射線不透過性オブジェクト302によって画定される軸と平行であっても構わない。
別の例として、マーカーデバイス300は、(ページの)三角形に配置されたオブジェクト302の各々を通る仮想平面にあるX軸およびZ軸を含む座標系を規定する。対応するY軸は、仮想平面(例えば、図が示されているページ)に垂直にのびている。一例では、座標系のZ軸に沿ってセンサー306の中心軸308がのびている。このため、センサー306の本体の幾何学的中心によって、X軸、Y軸およびZ軸の原点を画定することができる。上述したように、センサー306は、Z軸の長さに沿って軸方向にのびるとともにトラッキングシステムによって検出可能な細長いコイルとして構成することが可能である。例えば、センサー306は、マーカーデバイス300内の導電性材料のコイルとして実装され、センサーコイルの中心は、対応する座標系の原点に位置する。センサー306は、トラッキングシステムのフィールドジェネレータによって生成される電磁場に応答して、トラッキングシステムに伝達されるセンサー信号(例えば、誘導電流信号)を提供する。
図6は、組合せマーカーの硬い表面から患者の皮膚を保護しやすくすることができるマーカーパッドデバイス320の例を示す。マルチモーダルマーカーデバイス300(図5)を1つ以上パッドデバイス320内に実装し、トラッキングシステムのドメインと、本明細書で開示するような医用イメージングモダリティ(例えば、フルオロスコピーなど)のドメインとの間の位置同期を可能にすることができる。例えば、パッド320は、各組合せマーカーの周りにクッションを提供するために、ゲルまたは他の柔らかい可撓性材料を含むことが可能であり、このパッドを患者の皮膚に取り付けることができる。他の例では、患者の隣または下にあるベッドの上など、患者に隣接してパッド320を配置する。
図6の例では、パッドデバイス320は、互いに離れて分散されたマルチモーダルマーカー300のうちの3つを含む。パッドデバイス320については、患者の動きに対応するための柔軟性を確保しつつ、組合せマーカーを各々実質的に一定の空間的関係で保持するように構成することができる。また、マーカーデバイス300は各々、トラッキングシステムに接続することができる対応の接続部310を含む。例えば、トラッキングシステムを本明細書で開示するような電磁トラッキングシステムとして実装することが可能であり、よって、接続部115は各々、電気信号をトラッキングシステムに提供するための電気コネクタを含む。この電気信号は、トラッキングシステムの送信機によって生成され、それぞれの検知用コイルによって検出される電磁場に応答した誘導電流を表す。他の例では、接続を無線にすることが可能であり、センサーはRFまたは他の無線技術によって通信することができる。トラッキングシステムは、センサー信号を対応するトラッキングシステムデータに変換することができ、これらのデータは、本明細書で開示するように分析が可能なものである。例えば、トラッキングデータは、各マーカーデバイス104のトラッキングシステムの3次元座標空間(本明細書では、トラッキングシステム空間とも称する)における点の位置と向きを含むことができる。
図7Aおよび図7Bは、異なる視野角から2次元投影画像を取得するのに用いることができる医用イメージングモダリティ350の概略例を示す。例えば、医用イメージングモダリティ350は、電離放射線を用いて画像を取得するように構成されている(例えば、フルオロスコピーシステム、携帯型X線システムなど)。この例では、イメージングモダリティ350は、移動可能なCアーム356によって所望の間隔をあけた位置に取り付けられて保持される検出器354と電離放射線(例えば、X線)を提供するように構成されたX線源352とを含む。患者は、線源352と検出器354との間に、1つ以上のマーカーデバイス360と一緒に位置することができる。このため、取得された画像は、Cアームの位置を調整することによって調整される光源および検出器の視野角(例えば、軸)に応じて変化し得る。レジストレーションの目的で、視野角は、患者とマーカー360の着目領域を含む。
例として、レジストレーションは、X線源352を理想的なピンホールカメラとしてモデリングする(すなわち、歪みがないと仮定する)ことによって行われる。このとき、以下のような透視変換を用いて3D点を画像平面に投影することによって、得られる画像の各ピクセルが形成される。
(数1)
Figure 2023175771000002
ここで、X、Y、Zは、共通座標系における3D点の座標である。
uおよびvは、カメラ画像内の投影点の座標をピクセルで表したものである。
fxおよびfyは、ピクセル単位での焦点距離である。
cxおよびcyは、ピクセル単位での画像中心である。
r##およびt#は、共通座標系におけるX線検出器の位置と向きをそれぞれ定義する。
ベクトルv1またはv2を作成するために、ArUcoマーカー360の角がuおよびvとして画像内に配置される。式の残りの値については、すでにわかっている空間位置に基づいて埋めることができ、焦点距離(例えば、検出器とそれぞれの角の位置との間の距離)でXとYについて式の解が求められる。その上で、この新しい位置から検出器の位置(p1またはp2)を減算することで、ベクトルが計算される。例えば、点p1およびp2は、2つの投影用にCアームの回転角度に基づいて定義される。このとき、回転中心が原点として定義され、中心からの距離がCアームの半径に基づいて定義される。カメラの焦点距離は、付随するDICOMファイルに保存されているピクセル寸法から計算される。
次に、2つのベクトルv1とv2の交点(または最接近)を見つけることで、ArUcoマーカーの角の3D位置を計算することができる。共通の座標系におけるArUcoマーカーの位置と向きについては、それぞれの画像でフィデューシャルマーカーに対して識別された4つの角の位置すべてについて、このプロセスを繰り返すことによって計算される。例として、2つのベクトルの交点(または最接近)を、最接近点関数をインプリメントしたベクトル交点関数に従って計算することができる。一例として、以下の疑似コードには、それぞれのベクトル間の最近接点を決定するための最近接点関数がインプリメントされている。
(数2)
vector ClosestPoint(vector p1, vector v1, vector p2, vector v2)
{
// 方向ベクトルを正規化
v1 = normalize(v1);
v2 = normalize(v2);

// ベクトルが合わない(平行でない)ことを確認
float projDir = dot_product(v1, v2);
if (absolute_value(projDir) > 0.9999f)
{
// ベクトルがほぼ一致(平行)
return p1;
}

// 最も近い点を計算
float proj1 = dot_product(p2 - p1, v1);
float proj2 = dot_product(p2 - p1, v2);
float dist1 = (proj1 - (projDir * proj2)) / (1 - (projDir * projDir));
float dist2 = (proj2 - (projDir * proj1)) / ((projDir * projDir) - 1);
vector pointOnLine1 = p1 + (dist1 * v1);
vector pointOnLine2 = p2 + (dist2 * v2);
return linear_interpolate(pointOnLine1, pointOnLine2, 0.5f);
}
図7Aおよび図7Bの例では、マーカー360は、AruCoタイプの放射線不透過性マーカー(例えば、マーカーデバイス200、250に対応する)として示されている。
他の例では、本明細書で開示するように、異なるタイプのマーカーデバイスすなわち、マルチモーダルマーカーデバイス300および組合せマーカーシステム320を医用イメージングモダリティで使用してもよい。このため、108および154で決定されたようなそれぞれの変換(例えば、それぞれの変換行列)を使用して、医用イメージングモダリティ350によって取得された2D画像データ、3D術前画像データおよびリアルタイムのトラッキングデータに基づいて、1つ以上の視覚化をレンダリングできるようにすることが可能である。
図8は、アフィン変換を生成するためのシステム450の一例を示す。この例では、アフィン変換は、本明細書で開示するように、トラッキングデータおよび画像データを対応付けるための変換行列452および453として示されている。システム450は、データおよび命令の文脈で説明されており、プロセッサは、データにアクセスし、命令を実行して、本明細書で開示する機能を実行することができる。このシステムを実装するために、すべての機能が必要になるとは限らないことを理解されたい。例えば、異なる変換行列をそれぞれ別に生成してもよい。これによって、イメージングモダリティが変更されたり、別の手段で置き換えられたりしたときに、システム全体を変更する必要がないという利点が得られる。
図8の例では、システム450は、第1の変換行列(T1)452を生成するように構成されている。変換行列T1は、トラッキングシステム454のトラッキングシステム座標系から医用イメージングモダリティ456の座標系(例えば、フルオロスコピーまたはX線などの2Dイメージングシステム)および/または医用イメージングモダリティの座標系からトラッキング座標系に変換するように構成されてもよい。トラッキングシステム454は、患者の身体460内に配置された1つ以上のセンサー466の位置および向きを表すトラッキングデータ458を提供するように構成されている。
組合せマーカーシステム462(例えば、図4A、図4B、図5または図6の1つ以上のマルチモーダルマーカーを含む)を、患者の身体460に取り付けるか、患者の身体の近くに配置することができる。図8の例では、組合せマーカーシステム462は、トラッキングシステム454の座標系で組合せマーカーの位置を表すそれぞれのセンサー信号をトラッキングシステム454に提供する1つ以上のトラッキングセンサー464を含むことができる。一例では、1つ以上のオブジェクトセンサー466を、患者の身体460の中で移動可能なオブジェクトに対して貼り付けて、トラッキングシステムの座標系における当該センサーの位置を識別することができる。このように、当該オブジェクトセンサー466は各々、信号をトラッキングシステム454に提供することもでき、それに基づいて、トラッキングシステムがトラッキングシステム座標系における当該センサーの位置と向きを表す対応のトラッキングデータを計算することができる。上述したように、トラッキングデータ458は、マルチモーダルマーカーシステム462のマーカートラッキングセンサー464の位置と向きのみならず、それぞれのオブジェクトトラッキングセンサー466の位置と向きも表す。
いくつかの例では、例えば変換行列452を生成する目的で、センサー466および対応するトラッキングデータ458を無視(または省略)してもよい。他の例では、センサー466を患者の身体460に対して既知の位置(例えば、患者の体内または体外の既知の解剖学的ランドマーク)に配置し、(例えば、トラッキングデータ458によって提供される)トラッキングシステムの空間ドメインと、(例えば、既知の位置での2D画像データ472によって提供される)イメージングモダリティ456の空間ドメインの両方で、変換行列T1 452の生成を容易にするのに使用することができる追加のデータポイントを提供してもよい。
例として、トラッキングシステム454は、455で示される非電離場を提供する送信機(例えば、電磁場発生器)を含むことができる。この電磁場は、対応するセンサー信号をトラッキングシステムに提供するために、各センサー464および466によって検出される。例示的なトラッキングシステム454のひとつに、カナダ国オンタリオ州のNorthern Digital, Inc.から市販されているAURORA空間測定システムがある。トラッキングシステム454は、各センサーがセンサー位置を実質的にリアルタイムで決定できるようにする(例えば、センサーの位置と向きを記述するベクトルを提供する)のに十分な出力サンプルレート(例えば、60サンプル/秒)で、トラッキングデータ458を提供することができる。本明細書で開示するように、生成された変換452および/または453の1つ以上を適用して所与のドメインでグラフィカルな表現を作り出しやすくすることで、別の座標系に対応付けが可能なトラッキングシステムによって取得されるリアルタイムのトラッキングデータを、トラッキングデータによって同様に表すことができるように、トラッキングデータの各フレームをトラッキング処理サブシステムによって処理することができる。
トラッキングシステム454は、センサーが取り付けられているオブジェクトのみならず組合せマーカーシステムについても視覚化とリアルタイムの位置決めの計算を可能にするために、トラッキングデータ458を出力サンプルレートで提供することができる。マーカーシステム462は患者の身体460に取り付けられているため、トラッキングシステム454は、トラッキングデータ458を計算してトラッキングシステム454の座標系における患者の身体460の動きに対応する。
センサー変換470は、トラッキングデータ458を、本明細書で開示するようなそれぞれのマーカーデバイスに実装された放射線不透過性のオブジェクトの位置に変換するように構成されている。各々の位置は、トラッキングシステムの座標空間における3D空間座標であり、マーカーデバイスがトラッキング空間で移動しない場合には一定のままであってもよく、マーカーデバイスがトラッキング空間で移動する場合には時間の経過とともに変化してもよい。例えば、トラッキング座標系において、所定のマーカーデバイスの放射線不透過性のマーカーは各々、マーカーシステム462の所定のマーカーデバイスの一部であるトラッキングセンサー464の位置から、決まった既知のオフセット(例えば、3Dベクトル)のところにある。上述したように、マーカーシステムは、AruCoタイプ(例えば、デバイス250)または本明細書で開示するような他のマーカー構成(例えば、デバイス300)などの複数のマルチモーダルマーカーデバイスを含んでもよい。
このため、センサー変換470は、トラッキングデータ458と、所定のマーカー位置に対する各トラッキングセンサーの既知のオフセットとに基づいて、トラッキングシステム空間内の点(例えば、マーカー位置の3D座標)を計算するように構成されている。AruCoタイプのマルチモーダルマーカーデバイスの場合、本明細書で開示するような、マーカーの角にある一組の4つの点(例えば、emPoint_1, emPoint_2, emPoint_3, emPoint_4)をマーカー位置にすることができる。例えば、所定のマーカーデバイスに対して、以下のようにして、トラッキングセンサーの3D座標を含むセンサー変換(TS)とそれぞれのオフセットとを乗算することによって、トラッキングデータを提供するセンサーを有するArUcoタイプのマーカーデバイスの一組のマーカー位置について、トラッキングシステム空間内の点を計算すればよい。
(数3)
emPoint_1 = mult(Ts, offset_1),
emPoint_2 = mult(Ts, offset_2),
emPoint_3 = mult(Ts, offset_3),
emPoint_4 = mult(Ts, offset_4)
球状の放射線不透過性マーカーが配置されたマーカーデバイスの例(例えば、マーカーデバイス300の場合)では、既知のオフセットの3つの球状マーカーが各トラッキングセンサーの周りに分散している。したがって、センサー変換によって、マーカーシステム462の各マーカーデバイスに対して3つの点が生成される。例えば、変換470は、以下のように、それぞれの変換をトラッキングセンサーの位置(例えば、3D点)とそれぞれの放射線不透過性オブジェクトとの間の既知のオフセット(例えば、3Dオフセットベクトル)と乗算することに基づいて、各々の球状マーカーの中心に位置する点(例えば、emPoint_1, emPoint_2, emPoint_3)にマーカー位置を決定することができる。
(数4)
emPoint_1 = mult(Ts, offset_1),
emPoint_2 = mult(Ts, offset_2),
emPoint_3 = mult(Ts, offset_3)
他の例では、放射線不透過性マーカーに関連する固定オフセットを有する他の確定的な位置を使用してもよい。いくつかの例では、点を、各マーカーデバイスについての一組の点に配置してもよいし、すべての点を含む単一の組として配置してもよい。
医用イメージングモダリティ456は、イメージングモダリティ456の視野475内のオブジェクトを表す少なくとも2つの画像(例えば、X線写真)を含む2D画像データ472を生成するように構成される。例えば、イメージングモダリティは、患者の身体460に対して異なる視野角で取得された少数(例えば、少なくとも2つ、3つまたは4つ)の2D投影画像の2D画像データを取得するように構成されたX線スキャナ(例えば、図7Aおよび7Bのシステム)を含むことができる。画像データ472内の各画像は、マーカーシステム462の各マーカーデバイス内の放射線不透過性マーカーと、視野475内の患者の身体460の領域についての2D投影を含むように取得されてもよい。いくつかの例では、患者の身体の領域は、外科手術の一部のように、オブジェクトセンサー466が移動されるべき着目領域であってもよい。
マーカー識別機能474については、画像データ472で提供される各画像における各々の放射線不透過性マーカー(例えば、AruCoマーカーおよび/または他のオブジェクトマーカー)の位置を特定するように構成することができる。放射線不透過性マーカーは、イメージングモダリティ456によって放出される電離放射線を通さないため、画像内で可視化される。AruCoタイプのマーカーを含む組合せマーカーの例では、マーカー識別機能474によってAruco検出機能を呼び出して、それぞれのマーカーの位置を特定することができる。ArUcoタイプのマーカー以外の放射線不透過性のオブジェクトを含む組合せマーカーの例では、画像ピクセルの値に適用される画像閾値のみならず他の画像処理技術も用いて、当該各マーカーの周辺の位置を特定すればよい。マーカー識別機能474は、完全自動であってもよいおよび/またはマーカーを識別するユーザー入力に応答するユーザーインタラクティブなものであってもよい。識別されたマーカー(例えば、それぞれの画像のピクセル位置)を、後の処理のためにメモリに格納してもよい。
マーカー点生成器476は、画像データ472によって提供される(例えば、2つ以上の)画像で識別される各マーカーに対する空間座標を生成するようにプログラムされている。放射線不透過性のAruCoタイプのマーカーを含む組合せマーカーの例では、各マーカーの角のそれぞれについての空間座標すなわち、各トラッキングセンサーを囲む一組の4つの点の座標を生成することができる。球状の放射線不透過性マーカーの場合、各マーカーの空間座標は、マーカーシステム462に対する視野475によって提供される視野角についての各2D画像における円形投影の中心(例えば、マーカー識別機能474によって識別される周縁)の2D座標として提供される。所与のマーカーデバイスに対して3つの球状マーカーが各々のトラッキングセンサーを囲む例では、マーカー点生成器は、所与のマーカーデバイスに対する一組の3つの点の座標を提供するようにプログラムされている。放射線不透過性マーカーのタイプと構成にかかわらず、マーカー点生成器は、例えば、本明細書で開示するような最近接点関数を実行し、マーカーデバイスに対する各々のトラッキングセンサーの周囲にある一組の点を見つけるようにプログラムされている。
このようにして、各組の点を、それぞれ一緒にトラッキングセンサーの1つとリンクさせて関連付け、第1の変換行列452の生成を容易にすることができる。
第1の変換計算器478は、マーカー点生成器476によって提供された点とセンサー変換機能470によって提供された点とに基づいて、第1の変換行列452を計算するようにプログラムされている。例えば、変換計算器478を適用し、空間座標系で測定された一組の点を整合させる。それぞれのドメイン(例えば、トラッキングシステム座標系および医用イメージング座標系)における点を位置同期させるためのそのような位置同期アルゴリズムの例には、誤差最小化関数または基底変換関数を含んでもよい。
一例として、変換計算器478は、誤差最小化関数をインプリメントするようにプログラムされている。順序付けられた一組の点が与えられると、変換計算器478は、投影される位置と実測位置との間の距離を最小化する未知の変換T1を決定することになる。例えば、T1について、計算器478は、例えば以下のように、点間の距離を最小化する変換を見つけるようにプログラムされている。
(数5)
sum(n = 1..i, distance(mult(T1, imPoint_n), emPoint_n)^2)
ここで、nは、i個の点のうち、所与の1つを示す(iは、所与のマルチモーダルマーカーの点の数である)。
imPoint_nは、点nの画像空間における空間座標である。
emPoint_nは、点nのトラッキング空間における空間座標である。
一例として、単一値分解または任意の数の誤差最小化アルゴリズムによって、誤差最小化の解を得ることができる。
別の例として、変換計算器478は、基底変換関数をインプリメントするようにプログラムされている。変換計算器478が一組の基底ベクトル(座標空間を定義するx,y,z単位ベクトル)を生成できるように使用される点が配置されている場合、誤差最小化よりも単純な解を得ることが可能である。例えば、変換計算器478は、誤差を最小化するのではなく、両方の座標系で基底ベクトルを求め、これらを共通の点に適用するようにプログラムされている。これは、上述した誤差最小化手法よりも計算効率がよいが、点を特定の配置にしなければならない。
例えば、基底ベクトルを明確に定めるのに必要な点の配置は、90度の角度にある3つの点であり、どの点がどれであるかを変換計算器478が識別できる十分な追加情報(例えば、3つの点によって作られる三角形の辺の長さが異なるなど)が必要である。図3および図4に示すArUcoタイプのマーカーと、図5および図6に示すマーカーデバイスは、どちらもこのような基底変換関数を利用できるだけの点の配置があるが、図5および図6のマーカーデバイスでは、3点の各組を別個に扱う必要がある点に注意が必要である。
各座標系において、変換計算器478は、3つの点から基底ベクトルを構築する。例えば、point_1、point_2、point_3(例えば、直角三角形の頂点)が与えられると、point_2からpoint_1への1つのセグメントと、point_2からpoint_3への別のセグメントの2つのセグメントが提供される。これらのセグメントは、直角三角形の辺である。これらの点と線分から、以下の基底ベクトルが得られる。
(数6)
basis_z = normalize(point_1 - point_2)
basis_x = normalize(point_3 - point_2)
basis_y = cross(basis_x, basis_z)
基底ベクトルから、変換計算器478は、point_2の位置と向きを定義する行列(例えば、4×4行列)を以下のように生成するようにプログラムされている。
(数7)
matrix =
[ basis_x.x, basis_y.x, basis_z.x, point_2.x,
basis_x.y, basis_y.y, basis_z.y, point_2.y,
basis_x.z, basis_y.z, basis_z.z, point_2.z,
0, 0, 0, 1]
各々の座標系で定義されたその行列を用いて、変換計算器478は、2つの座標系間の変換452を計算することができる。例えば、変換行列T1の場合、次のようになる。
im_Matrixは、医用イメージング(例えば、術中)座標系の基底ベクトルから定義される行列である。
em_Matrixは、トラッキング座標系の基底ベクトルから定義される行列である。
以上より、変換計算器478は、基底ベクトルトラッキング行列(em_Matrix)と、基底ベクトルイメージング行列の逆行列(inv(im_Matrix))とを乗算することによって、例えば以下のように変換行列(T1)452を決定することができる。
(数8)
T1 = mult(em_Matrix, inv(im_Matrix))
この変換行列をメモリに格納し、トラッキングシステム空間から医用イメージング空間への変換に使用してもよい。例えば、トラッキングデータの位置と向きの情報に変換T1を適用することによって、トラッキングデータ458によって表される、患者の体内にあるオブジェクトセンサー466の位置を、医用イメージング空間に対応付けることができる。
また、上述したように、システム450は、医用イメージング座標系と先行する3D画像データ480の座標系との間での変換に用いられる第2の変換(T2)453を生成するように構成されている。例えば、先行する3D画像データ480を、(例えば、DICOM画像セットとして)メモリに格納することができ、これには、医用イメージングモダリティ456がその画像データ472を生成するより前の時間(例えば、102および104で取得された画像に対応するような術中)に実行される、患者の身体460の術前スキャン(例えば、CTスキャン)からの3D画像を含んでいてもよい。
投影計算器482(例えば、図2の機能152に対応する)は、2D画像データ472で提供される画像(例えば、2つの画像)の各々について、3D画像データ480からそれぞれの投影を生成するようにプログラムされている。投影計算器482は、3D画像空間からの点を2次元平面にマッピングする機能を実現している。例えば、投影計算器は、2D画像データ472の画像の視野角に合わせた順投影を作成する。3D投影の各々に対する投影角度のレジストレーションは、手動で整合されてもよいおよび/または自動でなされてもよい。一例では、2D画像の各々の角度を記述する画像データ472の画像メタデータ(2D画像データ472から投影計算器482への矢印に含まれるものとして示される)に基づくなどして、自動で整合がなされてもよい。例えば、メタデータは、AP、LAO、RAOなどの投影角度を指定するデータを含み、そのようなデータは、Cアームの角度から既知である場合があるおよび/またはイメージングモダリティ456が画像データ472を取得する際にユーザー入力に応じて提供されてもよい。
いくつかの例では、本明細書で開示するように、3D画像データは、血管の表面に対応する3Dメッシュの形などで、1つ以上の解剖学的構造のモデルを含んでもよい。本明細書で開示するように、術前画像480から生成されたメッシュに、3D投影行列(例えば、透視投影行列または平行投影行列)を適用してもよい。各々の術中画像についてCアームの角度がわかっている場合、術中画像ごとにその角度に一致させてメッシュの1つを3D投影する。Cアームの角度がわからない場合、異なる角度で複数の3D投影を行うことができ、それぞれの3D投影とそれぞれの2次元画像との間の「ベストフィット」マッチを手動または自動で選択することができる。
点生成器484は、(画像データ472によって提供される)2D画像および(投影計算器482によって提供される)3D画像の対応する投影の各々において空間点を生成するようにプログラムされている。球体またはマーカーの角を扱うのではなく、2D画像データ472と3D画像データ480の両方で見える特徴として、点が選択される。例えば、特徴は、背骨上の骨のランドマーク、両方のタイプの画像で見える小さな石灰化、あるいは、両方の画像で造影剤を使用する例では血管上の点などの構造を含む。他の例では、他の特徴またはフィデューシャルポイントを使用してもよい。いくつかの例では、自動化された方法(例えば、特徴抽出)で、一組の共通の特徴の位置を特定してもよい。これに加えてまたはこれに代えて、1つ以上のそのような特徴を、点生成器に提供される各々の画像および投影と相互作用するグラフィカルユーザーインタフェースなどのユーザーインタフェース486を介して提供されるユーザー入力に応答して選択してもよい。例えば、ユーザーは、異なる断像から視認可能な共通の構造を見て、各断像でそれを(例えば、マウス、キーボード、ジェスチャーまたは他の入力によって)選択/タグ付けすることができる。よって、点生成器484は、所定の特徴および/またはユーザーが選択した特徴ごとに点を生成する。このように、点生成器は、異なる一組のランドマークを使用するだけで、マーカー点生成器476と同様に動作する。画像データ480は3Dであるので、いくつかの例では、ユーザーは、画像データ480の3D画像の一組の直交する断像(例えば、横断像、冠状断像、矢状断像)を使用して、選択された点を(ユーザーインタフェース486を介して)識別し、画像データ480の3D座標系におけるx,y,zの位置を直接測定することができる。これらの位置を各々2次元座標に変換し、そのようなものとして、投影計算器482によって提供される順投影で提供してもよい。点生成器484は、本明細書で開示する最近接点関数など、2D画像に適用されるベクトル交差関数を使用するなどして、2D画像データにおける同一の点の位置を特定するようにプログラムされている。
それぞれの画像で得られた点は、変換行列453を生成するために第2の変換計算器488に提供される。変換計算器488は、点生成器484によって提供された共通の点に基づいて、第2の画像データの画像を3D画像データ480と整合させる変換行列を計算するようにプログラムされている。例えば、変換計算器488は、第1の変換計算器478に関して説明した単一値分解など、共通の一組の点に関する誤差最小化関数をインプリメントすることによって、変換行列(T2)453を構築する。他の例では、他の誤差最小化関数を使用してもよい。
いくつかの例では、システム450は、補正ユーザーインタフェース492を介して提供される命令に基づいて、変換行列452および453の一方または両方を手動補正するようにプログラムされた、変換補正機能490を含む。手動補正は、T1またはT2変換の推定値を用いることが最初に提供された場合でも適用することができる。例えば、レジストレーションを実行するために機能する十分に定義された(例えば、背骨または他の解剖学的構造上の)一組の測定点が画像データ480および/または472に含まれていない場合、システムは、変換T2の初期推定値あるいは、いくつかの例では、任意のT2変換(例えば、「アイデンティティ」行列)を定義して、ユーザーが補正機能490によって補正を行い、最終的なT2変換453を生成できるようにしてもよい。
別の例として、図9を参照すると、レジストレーションマネージャ500を使用して、変換T1 452および変換T2 453の一方または両方に対するユーザー補正をそれぞれ制御する。レジストレーションマネージャは、図8のシステム450の一部として実装されてもよいし、別個の機能として実装されてもよい。したがって、一貫性を保つために、図8で導入した機能とデータについては、同一の参照符号を使用して図9に示してある。そのような機能とデータに関する詳細な情報については、図8および対応する説明を参照することができる。
レジストレーションマネージャ500は、変換補正機能490と、第1の変換行列452および第2の変換行列453とを含む。この例では、変換行列452および453の一方または両方が補正を必要としている可能性があるとする。補正の必要性は、変換を適用して2つ以上のドメインを対応付け、得られる視覚化をディスプレイ510上で提供することによって、ユーザーに明らかにされてもよい。例えば、出力生成器512は、トラッキングシステムの座標系、医用イメージングモダリティ456の座標系または先行する3D画像データ480の座標系であってもよいなど、選択されたドメインで視覚化をレンダリングするように構成されている。一例では、マネージャ500は、ユーザーインタフェース520を介して受信したユーザー入力命令に基づいて、出力の視覚化がレンダリングされているドメインを選択するようにプログラムされたドメインセレクタ514を含む。
さらに、選択されたドメインに基づいて、レジストレーションマネージャは、それに応じて、変換T1またはT2の一方または両方を適用する。一例として、以下の表は、出力生成器512によって出力の視覚化がレンダリングされている選択されたドメインごとに、画像データ472、480またはトラッキングデータ458に、どの1つ以上の変換が適用されるかについての説明を提供する。さらに、表に記載したような1つ以上の変換またはその逆数を適用することなどにより、レジストレーションマネージャ500を使用してそれぞれの変換の適用を制御し、選択されたドメインで視覚化を提供することができる。
Figure 2023175771000003
別の例として、変換452または453のいずれかに対する手動補正は、それぞれの変換行列T1またはT2に、以下のような補正行列を乗じることによって提供することができる。
(数9)
correctedT1 = mult(correctionMatrix, T1)または
correctedT2 = mult(correctionMatrix, T2)
一例として、サポートされている補正の種類には、以下のように行列の形で適用されるような、平行移動、回転および拡大縮小がある。
(数10)
translationMatrix =
[ 1, 0, 0, translation.x,
0, 1, 0, translation.y,
0, 0, 1, translation.z,
0, 0, 0, 1]

scalingMatrix =
[ scale, 0, 0, 0,
0, scale, 0, 0,
0, 0, scale, 0,
0, 0, 0, 1]

rotationMatrix =(回転軸に依存)
別の例として、ユーザーは、ユーザーインタフェース516でマウスダウン/ドラッグ/マウスアップアクションまたは他のアクションを使用して、補正を開始する。補正行列で使用される値は、ディスプレイ510にビューポートを表示するのに使用される投影行列に基づいて設定されてもよい。例えば、APビューから開始される平行移動では、XおよびYのマウスの動きがtranslation.xおよびtranslation.zの値の設定に使用されることになる(translation.yは0となる)。このような変換により、ユーザーは、単一の画像のビューを変更したり、複数の画像の配置を変更したりすることができる。
別の例として、例えば変換T2の補正を実施する場合、ドメインレジストレーションマネージャ500は、変換T2を画像データ472に適用し、出力生成器512は、変換T2に基づいて3D画像で対応付けられた2D画像を視覚化する。ディスプレイ510に表示されるように、ランドマークが適切に配置されている場合、補正が必要ない場合もある。しかしながら、2D画像内のランドマークの位置が3D画像内のそれぞれの位置と整合しない場合、T2に補正が必要な場合がある。したがって、ユーザーは、ユーザーインタフェース516を介して、3D画像(またはその順投影)に対する2D画像のアライメントを調整することができる。上述したように、この調整には、入力装置(例えば、マウスまたはキーボード)を用いてユーザーインタフェースを介して入力された命令に応答してなされる、2次元での平行移動、回転および/または拡大縮小を含んでもよい。出力生成器512は、(例えば、リアルタイムで)各々の調整に応答し、ディスプレイに表示される視覚化を更新して、画像の対応付けを示すようにしてもよい。所望のアライメントが視覚化されると、ユーザーは、ユーザーインタフェース516を用いて変換T2に補正を適用してこれを保存し、更新されたT2を後で適用するためにメモリに格納することができる。同様のタイプの調整を、第1の変換行列412に対して行ってもよい。
図10Aおよび図10Bは、(例えば、補正機能490によって実装される)手動補正の前後に1つ以上の変換を適用する方法で、ディスプレイ(ディスプレイ510)で生成および視覚化することができる画像600および630の例を示す。図10Aおよび図10Bの両方において、画像は、解剖学的特徴およびマーカー特徴の共通の組を含む。例えば、解剖学的特徴は、背骨602の椎骨を含む。所与のマーカーデバイス610についてのマーカー特徴は、ある画像空間(例えば、トラッキングシステム座標系)から別の画像空間(例えば、医用イメージング座標系)への変換を適用することによってマッピングされたトラッキングセンサー606と放射線不透過マーカー604の位置を含む。また、マーカーデバイス610についてのマーカー特徴は、元のドメイン(例えば、医用イメージング座標系)における放射線不透過性マーカー608の位置を含む。また、画像は、別のマーカーデバイス618についてのマーカー特徴も含み、これは、ある画像空間(例えば、トラッキングシステム座標系)から別の画像空間(例えば、医用イメージング座標系)への変換を適用することによってマッピングされたトラッキングセンサー614と放射線不透過性マーカー612の位置ならびに、それらの元のドメイン(例えば、医用イメージング座標系)における放射線不透過性マーカー616の位置を含む。
図10Aに示すように、レジストレーションの誤りがゆえ、それぞれのマーカー特徴と解剖学的特徴とが整合していない。本明細書で開示するように、出力ディスプレイはインタラクティブであり、複数の画像のうち1つを別異の画像に対して調整(例えば、平行移動、回転または拡大縮小)するのに使用することができるGUI要素622を含む。そのような調整に応答して、補正機能490は、本明細書で開示するような、1つ以上の補正行列を生成する。図10Bにおいて可視化したもの630で示すような所望のアライメントが達成されると、ユーザーは、「フリーズ」GUI要素(ボタン)624を作動させて適切な変換に補正を適用することができる。更新後の変換については、後の適用のためにメモリに格納することが可能である。
いくつかの例では、AP画像を用いて第1のステップを実行した後、システムは、患者の左から右、頭から足への2次元のレジストレーションを行わなければならない。上記の手順を横方向または斜め方向のビューで繰り返し、第3の次元すなわち患者の前から後を得ることができる。さらに例を挙げると、ユーザーが大動脈分岐部やその他の識別可能なランドマークの近くでカテーテルやガイドワイヤー(例えば、トラッキングセンサーを含む)を前進させた場合、第2の2D医用画像がなくても、その第3の次元で大まかなレジストレーションを実行することができる。
例として、2次元画像データは、マルチモーダルマーカーの複数の所定部分が2次元画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのトラッキングセンサーに対する位置と向きが既知であるようにして、(例えば、術中に)医用イメージングモダリティによって患者とマルチモーダルマーカーとを含むように取得された1つの2次元画像を含んでもよい。マルチモーダルマーカーの所定部分の3次元位置は、2次元画像の各々の1つ(または複数)におけるマークの所定部分のそれぞれの位置に応じて、医用イメージングモダリティの座標系に対して推定されてもよい。マルチモーダルマーカーのそれぞれの所定部分について推定された位置と、少なくとも1つのトラッキングセンサー(例えば、既知のランドマークにおけるカテーテルまたはガイドワイヤー上のトラッキングセンサーを含む)とマルチモーダルマーカーの所定部分との間の既知の(アプリオリな)関係とに基づいて、トラッキングシステムの3次元座標系を医用イメージングモダリティの3次元座標系に対応付けるためのアフィン変換が決定される。したがって、第2の2D画像を省略しても、レジストレーションを可能にすることができる。
上述した構造的および機能的な説明を考慮すると、本明細書で開示するシステムおよび方法の一部を、方法、データ処理システムまたは非一過性のコンピュータ読み取り可能な媒体などのコンピュータプログラム製品として実現してもよいことを、当業者であれば理解するであろう。したがって、本明細書に開示する手法のこれらの部分は、完全にハードウェアの実施形態、(例えば、1つ以上の非一過性の機械読み取り可能な媒体において)完全にソフトウェアの実施形態またはソフトウェアとハードウェアを組み合わせた実施形態の形をとることができる。さらに、本明細書で開示するシステムおよび方法の一部は、コンピュータ読み取り可能なプログラムコードを有するコンピュータで利用できる記憶媒体に格納されたコンピュータプログラム製品であってもよい。静的記憶装置および動的記憶装置、ハードディスク、光学記憶装置および磁気記憶装置を含むがこれらに限定されるものではない、任意の適切なコンピュータ読み取り可能な媒体を用いることができる。
以上、いくつかの実施形態について、方法、システムおよびコンピュータプログラム製品のブロック図を参照して、本明細書で説明してきた。図示のブロックおよび図示のブロックの組み合わせを、コンピュータで実行可能な命令によって実施できることが、理解されるであろう。これらのコンピュータで実行可能な命令を、汎用コンピュータ、専用コンピュータまたは他のプログラム可能なデータ処理装置(または装置と回路の組み合わせ)の1つ以上のプロセッサに提供し、このプロセッサを介して実行される命令が1つ以上のブロックで指定された機能を実現するようなマシンを作ることができる。
これらのコンピュータで実行可能な命令を、コンピュータまたは他のプログラム可能なデータ処理装置に特定の方法で機能するように指示することができるコンピュータ読み取り可能なメモリに格納し、コンピュータ読み取り可能なメモリに格納された命令が、1つ以上のフローチャートブロックで指定された機能を実現する命令を含む製品となるようにすることもできる。また、コンピュータプログラム命令を、コンピュータまたは他のプログラム可能なデータ処理装置にロードし、コンピュータまたは他のプログラム可能な装置上で一連の動作ステップを実行させ、コンピュータ実装プロセスを生成して、コンピュータまたは他のプログラム可能な装置で実行される命令が、1つ以上のフローチャートブロックで指定された機能を実現するためのステップを提供するようにすることができる。
以上説明したものは例である。もちろん、考えられるすべての構成要素または方法論の組み合わせを説明することは不可能であるが、当業者であれば、さらに多くの組み合わせや並べ替えが可能であることを認識するであろう。したがって、本発明は、添付の特許請求の範囲を含めて、本願の範囲内に包含されるそのような変更、改変および変形をすべて包含することを意図している。本明細書で使用する場合、「含む(includes)」という表現は、含むがこれに限定されるものではないことを意味する。「基づく」という表現は、少なくとも部分的に基づくことを意味する。さらに、本開示または特許請求の範囲に「a(1つの)」、「an(1つの)」、「a first(第1の)」、「another(別の)」要素またはそれらの等価物が記載されている場合、2以上のそのような要素を要求することも除外することもなく、1以上のそのような要素を含むと解釈されるべきである。

Claims (28)

  1. 医用イメージングモダリティを使用して、患者とマルチモーダルマーカーとを含む2次元視野を含む第1の2次元投影画像を取得する工程と、
    前記医用イメージングモダリティを使用して、前記患者と前記マルチモーダルマーカーとを含む、前記第1の投影画像とは合わない角度でのものである第2の2次元投影画像を取得する工程と、
    前記第1の投影画像および前記第2の投影画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのセンサーに対する位置と向きが既知である、前記マルチモーダルマーカーの複数の所定部分の、前記第1の投影画像および前記第2の投影画像の各々における位置に応じて、前記医用イメージングモダリティの座標系に対する前記マルチモーダルマーカーの前記複数の所定部分の3次元位置を推定する工程と、
    前記マルチモーダルマーカーの前記複数の所定部分それぞれの前記推定された位置と、前記少なくとも1つのセンサーと前記マルチモーダルマーカーの前記複数の所定部分との間の既知の関係とに基づいて、前記トラッキングシステムの3次元座標系を前記医用イメージングモダリティの3次元座標系に対応付けるためのアフィン変換を決定する工程と、を含む、方法。
  2. 前記アフィン変換は、第1のアフィン変換であり、前記方法は、
    前記第1の2次元投影画像および前記第2の2次元投影画像の各々に対応する先行する3次元画像から複数の順投影をそれぞれ作成する工程と、
    前記第1の投影画像および前記第2の投影画像を、それぞれ前記複数の順投影と対応付けすることに基づいて、前記医用イメージングモダリティの前記座標系から前記先行する3次元画像の前記座標系への第2のアフィン変換を決定する工程と、
    をさらに含む、請求項1に記載の方法。
  3. 前記先行する3次元画像の前記座標系で前記患者の解剖学的構造を表現するために、前記先行する3次元画像から3次元メッシュモデルが作成され、
    前記先行する3次元画像からの前記それぞれの順投影は、前記メッシュモデルに基づいて決定される、請求項2に記載の方法。
  4. 前記第2のアフィン変換を決定する工程は、
    前記先行する3次元画像と前記第1の投影画像および前記第2の投影画像の各々において、共通する一組の特徴を識別する工程と、
    前記医用イメージングモダリティの前記座標系および前記先行する3次元画像の前記座標系において、前記共通する一組の特徴のうちの少なくとも一部の位置を決定する工程と、
    前記医用イメージングモダリティの前記座標系または前記先行する3次元画像の前記座標系のいずれか一方で前記共通する一組の特徴に対して決定された位置をアライメントするように構成されたそれぞれの変換行列として、前記第2のアフィン変換を計算する工程と、
    をさらに含む、請求項2または3に記載の方法。
  5. 前記第1のアフィン変換は、誤差最小化関数または基底変換関数のいずれか一方によって計算され、
    前記第2のアフィン変換は、誤差最小化関数によって計算される、請求項2、3または4に記載の方法。
  6. 前記マルチモーダルマーカーは、チャンバーと、前記チャンバーにアクセスするための少なくとも1つのポートと、を含み、前記チャンバーは、各々のセンサーに対して所定の空間位置および向きにあり、
    前記第1の投影画像および前記第2の投影画像の前記取得の際に、前記マルチモーダルマーカーが患者に対して固定され、
    前記マルチモーダルマーカーは、前記第1の投影画像および前記第2の投影画像の各々で前記チャンバーを可視化するために、前記第1の投影画像および前記第2の投影画像の前記取得の際に前記チャンバー内に造影剤を含み、
    前記方法は、
    前記第1の投影画像および前記第2の投影画像の前記取得よりも前に、前記ポートを経由して前記チャンバーに造影剤を加え、前記医用イメージングモダリティによって取得される画像で前記チャンバーを可視化する工程と、
    前記第1の投影画像および前記第2の投影画像の前記取得の後、前記医用イメージングモダリティによって取得される後続の画像で前記チャンバーが見えなくなるように前記チャンバーから前記造影剤を除去する工程と、
    をさらに含む、請求項1または2に記載の方法。
  7. 前記医療用イメージングモダリティは、電離放射線を用いて画像を取得するように構成されている、請求項1~6のいずれか1項に記載の方法。
  8. 前記医用イメージングモダリティは、回転中心を有するCアームを含み、前記方法は、前記Cアームの前記回転中心に関係づけて前記医用イメージングモダリティの前記座標系の原点を定義することをさらに含む、請求項7に記載の方法。
  9. 前記第1の投影画像および前記第2の投影画像が、右前斜位投影、左前斜位投影および前後方向の投影からなる群から選択されることを特徴とする請求項1~8のいずれか1項に記載の方法。
  10. 前記合わない角度は90度以下である、請求項1~9のいずれか1項に記載の方法。
  11. 前記先行する3次元画像は、前記患者のコンピュータ断層撮影画像および磁気共鳴画像のうちのいずれか一方を含む、請求項2、3、4、5、6、7、8、9または10に記載の方法。
  12. 請求項1~11のいずれか1項に記載の方法を実行するようにプログラムされた、1つ以上の非一過性のコンピュータ読み取り可能な媒体。
  13. データとプロセッサによって実行可能な命令とを格納するための1つ以上の非一過性のコンピュータ読み取り可能な媒体を含むシステムであって、
    前記データは、
    患者について取得された、先行する3次元画像データと、
    患者とマルチモーダルマーカーとを含むように医用イメージングモダリティによって取得された少なくとも1つの2次元画像を含む2次元画像データと、を含み、
    前記マルチモーダルマーカーの複数の所定部分は、前記少なくとも1つの2次元画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのトラッキングセンサーに対する位置と向きが既知であり、
    前記命令は、
    前記少なくとも1つの2次元画像の各々における前記複数の所定部分のそれぞれの位置に応じて、前記医用イメージングモダリティの座標系に対する前記マルチモーダルマーカーの複数の所定部分の3次元位置を推定する工程と、
    前記マルチモーダルマーカーの前記複数の所定部分それぞれの前記推定された位置と、前記少なくとも1つのトラッキングセンサーと前記マルチモーダルマーカーの前記複数の所定部分との間の既知の関係とに基づいて、前記トラッキングシステムの3次元座標系を前記医用イメージングモダリティの3次元座標系に対応付けるためのアフィン変換を決定する工程と、
    を含む方法を実行するようにプログラムされている、システム。
  14. 前記少なくとも1つの2次元画像が第1の2次元画像であり、
    前記2次元画像データは、前記医用イメージングモダリティによって取得された第2の2次元画像をさらに含み、前記第2の2次元画像は、前記患者と前記マルチモーダルマーカーとを含み、前記第1の2次元画像とは合わない角度でのものである、請求項13に記載のシステム。
  15. 前記アフィン変換は第1のアフィン変換であり、前記命令によって実行される前記方法は、
    各々の2次元画像に対応する先行する3次元画像から複数の順投影をそれぞれ作成する工程と、
    前記2次元画像の各々を前記複数の順投影にそれぞれ対応付けることに基づいて、前記医用イメージングモダリティの前記座標系と前記先行する3次元画像の前記座標系との間の第2のアフィン変換を決定する工程と、
    をさらに含む、請求項13または14に記載のシステム。
  16. 前記先行する3次元画像の前記座標系で前記患者の解剖学的構造を表現するために、前記先行する3次元画像から3次元メッシュモデルが作成され、
    前記先行する3次元画像からの前記それぞれの順投影は、前記メッシュモデルに基づく投影として決定される、請求項15に記載のシステム。
  17. 前記第2のアフィン変換を決定する工程は、
    前記2次元画像の各々と前記先行する3次元画像において、共通する一組の特徴を識別する工程と、
    前記医用イメージングモダリティの前記座標系および前記先行する3次元画像の前記座標系において、前記共通する一組の特徴のうちの少なくとも一部の位置を決定する工程と、
    前記医用イメージングモダリティの前記座標系または前記先行する3次元画像の前記座標系のいずれか一方で前記共通する一組の特徴に対して決定された位置をアライメントするように構成されたそれぞれの変換行列として、前記第2のアフィン変換を計算する工程と、
    をさらに含む、請求項15または16に記載のシステム。
  18. 前記第1のアフィン変換は、誤差最小化関数または基底変換関数のいずれか一方によって計算され、
    前記第2のアフィン変換は、誤差最小化関数によって計算される、請求項15、16または17に記載のシステム。
  19. マルチモーダルマーカーをさらに備え、前記マルチモーダルマーカーは、チャンバーと、前記チャンバーにアクセスするための少なくとも1つのポートと、を含み、前記チャンバーは、前記少なくとも1つのトラッキングセンサーに対して所定の空間位置および向きにあり、
    前記第1の画像および前記第2の画像の前記取得の際に、前記マルチモーダルマーカーは患者に対して固定され、
    前記マルチモーダルマーカーは、前記第1の画像および前記第2の画像の各々で前記チャンバーを可視化するために、前記第1の画像および前記第2の画像の前記取得の際に前記チャンバー内に流体の造影剤を含む、
    請求項13、14または15に記載のシステム。
  20. 前記システムは、前記医療用イメージングモダリティをさらに備え、前記医用イメージングモダリティは、電離放射線を用いて前記少なくとも1つの2次元画像の各々を取得するように構成されている、請求項13に記載のシステム。
  21. 前記医用イメージングモダリティは、回転中心を有するCアームを含み、前記医用イメージングモダリティの座標系の原点が、前記Cアームの前記回転中心に関係づけて定義される、請求項20に記載のシステム。
  22. 前記少なくとも1つの2次元画像は、右前斜位投影、左前斜位投影および前後方向の投影からなる群から選択される2つの画像を含む、請求項13、14、15、16、17、18、19、20または21に記載のシステム。
  23. 前記合わない角度は90度以下である、請求項13、14、15、16、17、18、19、20、21、22のいずれか1項に記載のシステム。
  24. 医用イメージングモダリティを使用して、患者とマルチモーダルマーカーとを含む2次元視野を含む第1の2次元投影画像を取得する工程と、
    前記医用イメージングモダリティを使用して、前記患者と前記マルチモーダルマーカーとを含む、前記第1の投影画像とは合わない角度でのものである第2の2次元投影画像を取得する工程と、
    前記第1の2次元投影画像および前記第2の2次元投影画像の各々に対応する先行する3次元画像から複数の順投影をそれぞれ作成する工程と、
    前記第1の投影画像および前記第2の投影画像を前記それぞれの順投影と対応付けることに基づいて、前記医用イメージングモダリティの座標系から前記先行する3次元画像の座標系へのアフィン変換を決定する工程と、を含み、
    前記マルチモーダルマーカーの複数の所定部分は、前記第1の投影画像および前記第2の投影画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのセンサーに対する位置と向きが既知である、方法。
  25. 前記第1の2次元投影画像および前記第2の2次元投影画像の各々における前記複数の所定部分の位置に応じて、前記医用イメージングモダリティの前記座標系に対する前記マルチモーダルマーカーの複数の所定部分の3次元位置を推定する工程と、
    前記マルチモーダルマーカーの前記複数の所定部分それぞれの前記推定された位置と、前記少なくとも1つのセンサーと前記マルチモーダルマーカーの前記複数の所定部分との間の既知の関係とに基づいて、前記トラッキングシステムの3次元座標系を前記医用イメージングモダリティの3次元座標系に対応付けるための第2のアフィン変換を決定する工程と、をさらに含む、請求項24に記載の方法。
  26. データとプロセッサによって実行可能な命令とを格納するための1つ以上の非一過性のコンピュータ読み取り可能な媒体を含むシステムであって、
    前記データは、
    患者について取得された、先行する3次元画像データと、
    患者とマルチモーダルマーカーとを含むように医用イメージングモダリティによって取得された少なくとも1つの2次元画像を含む2次元画像データと、を含み、
    前記マルチモーダルマーカーの複数の所定部分は、前記少なくとも1つの2次元画像において可視であり、かつ、トラッキングシステムによって検出可能な少なくとも1つのトラッキングセンサーに対する位置と向きが既知であり、
    前記命令は、
    各々の2次元画像に対応する、前記先行する3次元画像データから複数の順投影をそれぞれ作成する工程と、
    各々の2次元画像を前記複数の順投影にそれぞれ対応付けることに基づいて、前記医用イメージングモダリティの前記座標系と前記先行する3次元画像の前記座標系との間のアフィン変換を決定する工程と、
    を含む方法を実行するようにプログラムされている、システム。
  27. 前記アフィン変換は第1のアフィン変換であり、前記命令によって実行される前記方法は、
    前記少なくとも1つの2次元画像の各々における前記複数の所定部分のそれぞれの位置に応じて、前記医用イメージングモダリティの座標系に対する前記マルチモーダルマーカーの複数の所定部分の3次元位置を推定する工程と、
    前記マルチモーダルマーカーの前記複数の所定部分それぞれの前記推定された位置と、前記少なくとも1つのトラッキングセンサーと前記マルチモーダルマーカーの前記複数の所定部分との間の既知の関係とに基づいて、前記トラッキングシステムの3次元座標系を前記医用イメージングモダリティの3次元座標系に対応付けるための第2のアフィン変換を決定する工程と、
    をさらに含む、請求項26に記載のシステム。
  28. 前記少なくとも1つの2次元画像が第1の2次元画像であり、
    前記2次元画像データは、前記医用イメージングモダリティによって取得された第2の2次元画像をさらに含み、前記第2の2次元画像は、前記患者と前記マルチモーダルマーカーとを含み、前記第1の2次元画像とは合わない角度でのものである、請求項26または27に記載のシステム。
JP2023147235A 2019-04-04 2023-09-11 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション Pending JP2023175771A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962829394P 2019-04-04 2019-04-04
US62/829,394 2019-04-04
JP2021559271A JP7440534B2 (ja) 2019-04-04 2020-04-06 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション
PCT/US2020/026865 WO2020206421A1 (en) 2019-04-04 2020-04-06 Spatial registration of tracking system with an image using two-dimensional image projections

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021559271A Division JP7440534B2 (ja) 2019-04-04 2020-04-06 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション

Publications (1)

Publication Number Publication Date
JP2023175771A true JP2023175771A (ja) 2023-12-12

Family

ID=72662360

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021559271A Active JP7440534B2 (ja) 2019-04-04 2020-04-06 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション
JP2023147235A Pending JP2023175771A (ja) 2019-04-04 2023-09-11 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021559271A Active JP7440534B2 (ja) 2019-04-04 2020-04-06 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション

Country Status (6)

Country Link
US (1) US11393110B2 (ja)
EP (1) EP3946062A4 (ja)
JP (2) JP7440534B2 (ja)
CN (1) CN113573641A (ja)
CA (1) CA3131071A1 (ja)
WO (1) WO2020206421A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11918406B2 (en) * 2019-02-15 2024-03-05 Koninklijke Philips N.V. Marker registration correction by virtual model manipulation
CA3210881A1 (en) * 2019-09-26 2021-03-26 Ascension Technology Corporation Reconfigurable transmitter array for electromagnetic tracking systems
US11253216B2 (en) * 2020-04-28 2022-02-22 Globus Medical Inc. Fixtures for fluoroscopic imaging systems and related navigation systems and methods
CN115516513A (zh) * 2020-05-06 2022-12-23 奇跃公司 基于卷积的相机和显示器校准
CN112750520A (zh) * 2020-12-31 2021-05-04 四川桑瑞思环境技术工程有限公司 一种信息处理系统
CN115137481A (zh) * 2021-02-02 2022-10-04 武汉联影智融医疗科技有限公司 手术导航的配准方法、装置、计算机设备和存储介质
CN113384361B (zh) * 2021-05-21 2022-10-28 中山大学 一种视觉定位方法、系统、装置及存储介质
CN113764076B (zh) * 2021-07-26 2024-02-20 北京天智航医疗科技股份有限公司 检测医疗透视图像中标记点的方法、装置及电子设备
CN113823399B (zh) * 2021-09-18 2023-08-22 武汉联影智融医疗科技有限公司 二维医学影像设备的摆位控制方法、装置和计算机设备
CN113842216B (zh) * 2021-12-01 2022-02-22 极限人工智能有限公司 一种上下牙对合模拟方法、装置及电子设备
CN114366300B (zh) * 2021-12-24 2024-02-09 苏州国科康成医疗科技有限公司 一种手术图像空间映射装置、设备以及方法
CN114404041B (zh) * 2022-01-19 2023-11-14 上海精劢医疗科技有限公司 C型臂成像参数校准系统及方法
CN117357250A (zh) * 2022-06-28 2024-01-09 上海微创电生理医疗科技股份有限公司 X射线图像与三维标测图像的融合方法和介入手术系统
CN115063290B (zh) * 2022-08-17 2022-11-22 腾讯科技(深圳)有限公司 图像处理方法、装置、设备、系统及存储介质
CN115205417B (zh) * 2022-09-14 2023-03-14 首都医科大学附属北京安贞医院 一种投影变换的计算方法、装置、设备及存储介质

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6782287B2 (en) * 2000-06-27 2004-08-24 The Board Of Trustees Of The Leland Stanford Junior University Method and apparatus for tracking a medical instrument based on image registration
US6533455B2 (en) 2000-08-31 2003-03-18 Siemens Aktiengesellschaft Method for determining a coordinate transformation for use in navigating an object
US7840393B1 (en) 2000-10-04 2010-11-23 Trivascular, Inc. Virtual prototyping and testing for medical device development
FR2822273B1 (fr) 2001-03-13 2003-07-11 Ge Med Sys Global Tech Co Llc Procede d'etalonnage pour la reconstruction de modelisations tri-dimensionnelles a partir d'images obtenues par tomographie
US20030011624A1 (en) 2001-07-13 2003-01-16 Randy Ellis Deformable transformations for interventional guidance
DE10201644A1 (de) * 2002-01-17 2003-08-07 Siemens Ag Registrierungsprozedur bei projektiver intraoperativer 3D-Bildgebung
DE10202091B4 (de) 2002-01-21 2005-09-08 Siemens Ag Vorrichtung zur Ermittlung einer Koordinatentransformation
US7697972B2 (en) 2002-11-19 2010-04-13 Medtronic Navigation, Inc. Navigation system for cardiac therapies
US7599730B2 (en) 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
JP4415762B2 (ja) * 2003-06-10 2010-02-17 株式会社島津製作所 断層撮影装置
EP1774454A2 (en) 2004-06-02 2007-04-18 M2S, Inc. Anatomical visualization and measurement system
WO2006020792A2 (en) 2004-08-10 2006-02-23 The General Hospital Corporation Methods and apparatus for simulation of endovascular and endoluminal procedures
WO2007025081A2 (en) 2005-08-24 2007-03-01 Traxtal Inc. System, method and devices for navigated flexible endoscopy
US7950849B2 (en) * 2005-11-29 2011-05-31 General Electric Company Method and device for geometry analysis and calibration of volumetric imaging systems
JP4491420B2 (ja) 2006-01-12 2010-06-30 株式会社日立メディコ 手術支援装置及び手術支援撮像装置
JP4836122B2 (ja) 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
US7556428B2 (en) 2006-04-14 2009-07-07 Xoran Technologies, Inc. Surgical navigation system including patient tracker with removable registration appendage
JP2008061858A (ja) 2006-09-08 2008-03-21 Toshiba Corp 穿刺治療ナビゲーション装置
US8248413B2 (en) 2006-09-18 2012-08-21 Stryker Corporation Visual navigation system for endoscopic surgery
US7824328B2 (en) 2006-09-18 2010-11-02 Stryker Corporation Method and apparatus for tracking a surgical instrument during surgery
WO2008035271A2 (en) 2006-09-20 2008-03-27 Koninklijke Philips Electronics N.V. Device for registering a 3d model
US7996060B2 (en) 2006-10-09 2011-08-09 Biosense Webster, Inc. Apparatus, method, and computer software product for registration of images of an organ using anatomical features outside the organ
US7671887B2 (en) 2006-11-20 2010-03-02 General Electric Company System and method of navigating a medical instrument
IL188569A (en) 2007-01-17 2014-05-28 Mediguide Ltd Method and system for coordinating a 3D image coordinate system with a medical position coordinate system and a 2D image coordinate system
US8301226B2 (en) 2007-04-24 2012-10-30 Medtronic, Inc. Method and apparatus for performing a navigated procedure
US8213693B1 (en) 2007-05-16 2012-07-03 General Electric Company System and method to track and navigate a tool through an imaged subject
EP2431943B1 (en) 2007-05-30 2015-04-01 The Cleveland Clinic Foundation Automated centerline extraction method and generation of corresponding analytical expression and use
JP2009072317A (ja) 2007-09-19 2009-04-09 Toshiba Medical System Co Ltd 医療用チューブ操作支援システム
US10398393B2 (en) 2007-10-02 2019-09-03 Stryker European Holdings I, Llc Dynamic reference method and system for interventional procedures
US8472689B2 (en) * 2008-03-04 2013-06-25 Carestream Health, Inc. Method for enhanced voxel resolution in MRI image
US8219179B2 (en) 2008-03-06 2012-07-10 Vida Diagnostics, Inc. Systems and methods for navigation within a branched structure of a body
ES2573945T3 (es) 2008-09-16 2016-06-13 Novartis Ag Cuantificación reproducible de expresión de biomarcadores
US8175681B2 (en) 2008-12-16 2012-05-08 Medtronic Navigation Inc. Combination of electromagnetic and electropotential localization
WO2010086374A1 (en) 2009-01-29 2010-08-05 Imactis Method and device for navigation of a surgical tool
EP2433262B1 (en) * 2009-05-18 2016-07-27 Koninklijke Philips N.V. Marker-free tracking registration and calibration for em-tracked endoscopic system
EP2440129A4 (en) 2009-06-08 2015-06-03 Mri Interventions Inc MRI-CONTROLLED SURGICAL SYSTEMS WITH PRESET SCAN SURFACES
US8315355B2 (en) 2009-10-28 2012-11-20 Siemens Aktiengesellschaft Method for operating C-arm systems during repeated angiographic medical procedures
JP5674814B2 (ja) 2010-01-06 2015-02-25 シブコ メディカル インストルメンツ カンパニー インコーポレイテッドCivco Medical Instruments Co.,Inc. マーカ装置、取り付け部材、フレームアセンブリ
CN101862205A (zh) * 2010-05-25 2010-10-20 中国人民解放军第四军医大学 一种结合术前影像的术中组织跟踪方法
JP5600272B2 (ja) 2010-07-16 2014-10-01 富士フイルム株式会社 放射線撮影装置および方法並びにプログラム
JP2012147858A (ja) 2011-01-17 2012-08-09 Tokyo Univ Of Agriculture & Technology 画像処理装置、画像処理方法及び画像処理プログラム
WO2012127353A1 (en) 2011-03-18 2012-09-27 Koninklijke Philips Electronics N.V. Multi-leg geometry reference tracker for multi-modality data fusion
DE102011007796B4 (de) 2011-04-20 2019-07-04 Siemens Healthcare Gmbh Verfahren zur Ermittlung einer Zielposition für eine medizinische Maßnahme
US8705832B2 (en) * 2011-08-03 2014-04-22 Siemens Medical Solutions Usa, Inc. Registration of emission tomography and computed tomography
US8948487B2 (en) * 2011-09-28 2015-02-03 Siemens Aktiengesellschaft Non-rigid 2D/3D registration of coronary artery models with live fluoroscopy images
GB201208886D0 (en) 2012-05-18 2012-07-04 King S College London Virtual fiducial markers
US9183354B2 (en) * 2012-08-15 2015-11-10 Musc Foundation For Research Development Systems and methods for image guided surgery
CN105228518B (zh) * 2013-03-12 2018-10-09 火山公司 用于诊断冠状微脉管疾病的系统和方法
US20140276001A1 (en) * 2013-03-15 2014-09-18 Queen's University At Kingston Device and Method for Image-Guided Surgery
EP2996607B1 (en) * 2013-03-15 2021-06-16 The Cleveland Clinic Foundation System to facilitate intraoperative positioning and guidance
WO2015010859A1 (en) * 2013-07-23 2015-01-29 Koninklijke Philips N.V. Registration system for registering an imaging device with a tracking device
GB201313810D0 (en) 2013-08-01 2013-09-18 King S College London Method and system for tomosynthesis imaging
EP2868277B1 (en) 2013-11-04 2017-03-01 Surgivisio Method for reconstructing a 3d image from 2d x-ray images
US10786309B2 (en) * 2013-12-10 2020-09-29 Koninklijke Philips N.V. Radiation-free registration of an optical shape sensing system to an imaging system
US9480448B2 (en) * 2014-07-23 2016-11-01 General Electric Company System and method for use in mapping a radiation dose applied in an angiography imaging procedure of a patient
GB201502877D0 (en) 2015-02-20 2015-04-08 Cydar Ltd Digital image remapping
ES2588257B1 (es) * 2015-03-31 2017-08-04 Consejo Superior De Investigaciones Científicas (Csic) Dispositivo para extraer información tridimensional de imágenes radiográficas de un objeto; procedimiento de calibración de dicho dispositivo; y procedimiento para generar dichas imágenes radiográficas
US10524756B2 (en) * 2015-08-27 2020-01-07 Varian Medical Systems International Methods and systems for image artifacts reduction
US20170367766A1 (en) * 2016-03-14 2017-12-28 Mohamed R. Mahfouz Ultra-wideband positioning for wireless ultrasound tracking and communication
CN106683180B (zh) * 2017-01-03 2019-08-27 清华大学 图像处理方法及系统
CN107028626B (zh) * 2017-05-26 2023-06-06 北京龙慧珩医疗科技发展有限公司 一种前列腺术弹性配准方法及装置
JP7270331B2 (ja) * 2017-06-15 2023-05-10 キヤノンメディカルシステムズ株式会社 医用画像診断装置及び画像処理装置
JP7227168B2 (ja) * 2017-06-19 2023-02-21 モハメド・アール・マーフーズ 蛍光透視法および追跡センサを使用する股関節の外科手術ナビゲーション
US11801114B2 (en) * 2017-09-11 2023-10-31 Philipp K. Lang Augmented reality display for vascular and other interventions, compensation for cardiac and respiratory motion
US10893842B2 (en) * 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
WO2019165430A1 (en) * 2018-02-26 2019-08-29 Cornell University Augmented reality guided system for cardiac interventional surgery
GB201805299D0 (en) 2018-03-29 2018-05-16 Cydar Ltd Deformation correction
JP7165600B2 (ja) * 2019-02-28 2022-11-04 キヤノンメディカルシステムズ株式会社 X線診断装置及び医療情報処理装置

Also Published As

Publication number Publication date
EP3946062A4 (en) 2023-06-14
WO2020206421A1 (en) 2020-10-08
CA3131071A1 (en) 2020-10-08
JP7440534B2 (ja) 2024-02-28
EP3946062A1 (en) 2022-02-09
JP2022526989A (ja) 2022-05-27
US11393110B2 (en) 2022-07-19
US20200320721A1 (en) 2020-10-08
CN113573641A (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
JP7440534B2 (ja) 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション
US11538574B2 (en) Registration of spatial tracking system with augmented reality display
JP7290763B2 (ja) 手術中の位置調整および誘導を容易にするシステム
Weese et al. Voxel-based 2-D/3-D registration of fluoroscopy images and CT scans for image-guided surgery
US10650513B2 (en) Method and system for tomosynthesis imaging
EP1719078B1 (en) Device and process for multimodal registration of images
EP2951779B1 (en) Three-dimensional image segmentation based on a two-dimensional image information
US20120155732A1 (en) CT Atlas of Musculoskeletal Anatomy to Guide Treatment of Sarcoma
JP2014507235A (ja) ナビゲーションガイダンスのための視覚化
AU2015238800A1 (en) Real-time simulation of fluoroscopic images
WO2016131955A1 (en) Automatic 3d model based tracking of deformable medical devices with variable appearance
US20210145372A1 (en) Image acquisition based on treatment device position
CN111028326A (zh) 用于使3d对象的空间表面曲率可视化的方法、系统和介质
Weese et al. 2D/3D registration and motion tracking for surgical interventions
EP4128145B1 (en) Combining angiographic information with fluoroscopic images
US20140309476A1 (en) Ct atlas of musculoskeletal anatomy to guide treatment of sarcoma
WO2012123852A1 (en) Modeling of a body volume from projections

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231011