JP7213413B2 - C-armベースの医用画像システム及び2D画像と3D空間の整合方法 - Google Patents

C-armベースの医用画像システム及び2D画像と3D空間の整合方法 Download PDF

Info

Publication number
JP7213413B2
JP7213413B2 JP2021553134A JP2021553134A JP7213413B2 JP 7213413 B2 JP7213413 B2 JP 7213413B2 JP 2021553134 A JP2021553134 A JP 2021553134A JP 2021553134 A JP2021553134 A JP 2021553134A JP 7213413 B2 JP7213413 B2 JP 7213413B2
Authority
JP
Japan
Prior art keywords
image
plate
arm
ray
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021553134A
Other languages
English (en)
Other versions
JP2022523587A (ja
Inventor
チョイ、ジン・ヒョク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Curexo Inc
Original Assignee
Curexo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Curexo Inc filed Critical Curexo Inc
Publication of JP2022523587A publication Critical patent/JP2022523587A/ja
Application granted granted Critical
Publication of JP7213413B2 publication Critical patent/JP7213413B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明はC-armベースの医用画像システム及び2D画像と3D空間の整合方法に関し、より具体的には、C-arm画像のピクセル及びこれに対応する3D空間座標との間の整合関係及び/または任意の3D座標及びこれに対応するC-arm画像のピクセルとの間の整合関係を生成する医用画像システム及び方法に関する。
C-armベースの医用画像システムは、医師が治療状況をリアルタイムで確認できるようにすることで、治療の精度を高めるのに大きく寄与してきた。例えば、椎間板の治療法として知られている硬膜外注射、神経ブロック,神経形成術,高周波熱凝固法などを施術する際に、医師は脊椎神経周囲の病変に注射、カテーテルを挿入しながらC-arm画像を肉眼で確認することにより、施術の安全性と正確性を担保する。
医師の施術を補助するための医療用ロボット、プランニングシステム、ナビゲーションシステムなどが開発されるに伴い、医療用ロボット、プランニングシステムなどに要求される高度な機能、例えば、C-armスキャンオブジェクトの3D再構成と、被検体の3次元空間位置情報などが要求されているが、一般的なC-armはこのような機能を提供していない。
図1に示すように、モバイルC-armX-線装置は、一般的にX-線ソース100と、これに対向するディテクター200と、C字形状のフレーム300と、フレーム300を移動させる駆動部400を含んで構成される。施術者は、駆動部400を制御して、フレーム300を回転または並進運動させながら所望の撮影位置にソース100及びディテクター200を位置させた後、X-線を照射して画像を取得する。施術者は、ソース100及びディテクター200の位置を変更しながら被検体500についての多数のX-線画像を得ることができ、いわゆる「back-projection」を介して3Dボクセルを再構成することができる。
しかし、C-arm装置の幾何学的構造は、正確な位置情報を提供していないので、正確なボクセルを再構成することができないだけでなく、その位置情報を提供することもできない。C-armX-線ソース100は、非常に重く、これによりたるみ現象が発生する場合が多く、フレーム300の円周軌道に沿ってソース100とディテクター200を回転して移動させてもC-armの幾何学的構造が一定に保持されなくて、従って「back-projection」によって、正確なボクセルを再構成するのは難しい。また、ディテクターの平面202、dがC-armケースの内側200に位置してディテクターの平面202、dの位置をメーカー以外には知ることができず、ソース機器102、Sもケースの内側100に位置しており、正確な光源の位置を知ることができないので、C-arm画像では合成された3Dモデルの実際の位置を特定することができない。
したがって、与えられたC-arm幾何学的構造に関する情報のみを活用しても画像と空間の間の整合が可能な新しい医用画像システムに関する技術が求められている。
本発明は、前述した従来の問題を解決するために案出されたものであって、3Dボクセルを形成せずに所望のC-arm画像のピクセルとこれに対応する医療空間座標を整合することができる医用画像システム及び整合方法を提供することを目的とする。また、本発明は、任意の医療空間座標を与えられたC-arm画像上のあるピクセルに整合することができる医用画像システム及び整合方法を提供することを目的とする。
前記目的は、本発明の一態様に係る医用画像システムにおいて、X-線ソース及びディテクターを有するC型透視照影装置(以下、「C-arm」という)と、前記X-線ソース前記ディテクターとの間のX-線経路に設けられて、X-線不透過性の複数の第1ボールマーカーが備えられた第1透過面及び第1光学式マーカーを有する第1プレートと、前記X-線ソース前記ディテクターとの間のX-線経路に設けられて、X-線不透過性の複数の第2ボールマーカーが備えられた第2透過面及び第2光学式マーカーを有する第2プレートと、3次元基準座標系を提供するための基準光学式マーカーと、前記第1及び第2光学式マーカー及び前記基準光学式マーカーの位置を認識する光学追跡装置と、前記ディテクターが互いに異なる第1位置及び第2位置で被検体について第1撮影画像及び第2撮影画像をそれぞれ取得し、前記第1及び第2撮影画像上の前記第1及び第2ボールマーカーの位置と前記光学追跡装置から得られた位置情報を基に、3次元基準座標系上の座標と、前記第1及び第2撮影画像上の位置との間の整合関係を算出する整合部を含むことを特徴とする医用画像システムによって達成することができる。
ここで、前記整合部は、前記第1及び第2撮影画像上の前記第1ボールマーカーの位置と、前記第1光学式マーカーを媒介として算出される前記第1プレート上の第1ボールマーカーの位置間の対応関係を基に、前記第1及び第2撮影画像を前記X-線経路に沿って前記第1プレート上にそれぞれ投影して、第1及び第2投影画像を求めることができ、前記第1及び第2投影画像上の前記第2ボールマーカーの位置と、前記第2光学式マーカーを媒介として算出される前記第2プレート上の第2ボールマーカーの位置間の対応関係を基に、前記第1及び第2撮影画像にそれぞれ対応する前記X-線ソースの第1及び第2ソースの位置を求めることができる。そして、前記整合部は前記第1ソースの位置から照射される第1X-線の投影経路及び前記第2ソースの位置から照射される第2X-線の投影経路が重なる3次元照影空間を算出することができる。
前記医用画像システムは、前記第1及び第2撮影画像を表示するためのディスプレイと、施術者から前記第1及び第2撮影画像上に任意の位置情報の入力を受けるためのユーザーインターフェースをさらに含み、前記整合部は、前記施術者から入力された位置情報に対応する前記基準座標系上の空間座標を整合することができる。
前記医用画像システムは、第3光学式マーカーを有する医療用処置具をさらに含み、前記整合部は、前記光学追跡装置が前記第3光学式マーカーを媒介として取得した前記医療用処置具の位置座標を取得し、前記整合関係を基に、前記第1及び第2撮影画像上で前記医療用処置具の位置情報を算出することができる。
そして、前記第1プレートは、前記第1透過面が前記ディテクターの前面部に位置するように、前記C-armに固定するための固定部材を含むことができ、前記第2プレートは、前記第1プレートと前記X-線ディテクターとの間に設けられることができる。
また、前記目的は、本発明の別の態様に係るC-armの2D画像と3D空間の整合方法において、第1位置でC-armディテクターが第1撮影画像を取得するステップと、前記第1撮影画像を前記第1位置に対応する第1X-線経路に沿って、第1プレート上に逆投影して第1投影画像を求めるステップであって、前記第1プレートは、前記第1X-線経路上に設けられ、医療空間座標系(以下、「基準座標系」)で位置の識別が可能な第1光学式マーカーを有するステップと、前記第1X-線経路上に設けられた第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の第2プレートのボールマーカーの位置の対応関係を基に、前記第1位置に対応するC-armソースの位置である第1ソースの位置を算出するステップと、第2位置でC-armディテクターが第2撮影画像を取得するステップと、前記第2撮影画像を前記第2位置に対応する第2X-線経路に沿って前記第2X-線経路上に設けられた第1プレート上に逆投影して、第2投影画像を求めるステップと、前記第2X-線経路上に設けられた前記第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の前記第2プレートのボールマーカーの位置の対応関係を基に、前記第2位置に対応する前記C-armソースの位置である第2ソースの位置を算出するステップと、前記第1ソースの位置と前記第1投影画像上の第1ピクセルを結ぶ第1ラインと、前記第2ソースの位置と前記第2投影画像上の第2ピクセルを結ぶ第2ラインの交差点の座標を算出して、前記第1ピクセル及び前記第2ピクセルに対応する前記第1撮影画像及び前記第2撮影画像上のピクセルを前記交差点の座標に整合させるステップと、を含むことを特徴とするC-armの2D画像と3D空間の整合方法によって達成することができる。
また、前記目的は、本発明の別の態様に係るC-armの2D画像と3D空間の整合方法において、第1位置でC-armディテクターが第1撮影画像を取得するステップと、前記第1撮影画像を前記第1位置に対応する第1X-線経路に沿って、第1プレート上に逆投影して、第1投影画像を求めるステップであって、前記第1プレートは、前記第1X-線経路上に設けられて基準座標系での位置の識別が可能な第1光学式マーカーを有するステップと、前記第1X-線経路上に設けられた第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の第2プレートのボールマーカーの位置の対応関係を基に、前記第1位置に対応するC-armソースの位置である第1ソースの位置を算出するステップと、第2位置でC-armディテクターが第2撮影画像を取得するステップと、前記第2撮影画像を前記第2位置に対応する第2X-線経路に沿って前記第2X-線経路上に設けられた第1プレート上に逆投影して、第2投影画像を求めるステップと、前記第2X-線経路上に設けられた前記第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の前記第2プレートのボールマーカーの位置の対応関係を基に、前記第2位置に対応する前記C-armソースの位置である第2ソースの位置を算出するステップと、任意の空間座標が前記第1X-線経路に沿って前記第1投影画像に投影される第1ピクセルを算出し、前記任意の空間座標が前記第2X-線経路に沿って前記第2投影画像に投影される第2ピクセルを算出して、前記空間座標を前記第1ピクセル及び前記第2ピクセルに整合させるステップと、前記第1投影画像上の前記第1ピクセル及び前記第2投影画像上の前記第2ピクセルを逆ワーピング行列によって前記第1撮影画像及び前記第2撮影画像上のピクセルに整合させるステップと、を含むことを特徴とするC-armの2D画像と3D空間の整合方法によって達成することができる。
ここで、前記第1プレート上で前記第1撮影画像の第1投影画像を求めるステップは、前記第1プレートのボールマーカーに対応する前記第1撮影画像上での位置及び前記基準座標系上の位置を基準に前記第1撮影画像をワーピングして前記第1投影画像を算出することを含むことができる。または、前記第1プレート上で前記第2撮影画像の第2投影画像を求めるステップは、前記第1プレートのボールマーカーに対応する前記第2撮影画像上での位置及び前記基準座標系上の位置を基準に前記第2撮影画像をワーピングして前記第2投影画像を算出することを含むことができる。
本発明は、最小個数のC-arm画像つまり、少なくとも二つの任意の位置で取得したC-arm画像の相互関係から画像のピクセル-空間座標間の整合関係を導出することができて、3Dボクセルを形成しないながらも位置に制限のない最小個数のC-arm画像を用いて、空間座標に基づく手術計画のプランニング、ナビゲーション機能を実装することができる。
従来のC-arm装置の概略的な構成図である。 本発明の実施形態に係るC-armベースの医用画像システムの概略的な模式図である。 本発明の実施形態に係る2D画像のピクセルと3D空間座標との間の整合方法を示すフローチャートである。 本発明の実施形態に係る整合過程を説明するための模式図である。 本発明の実施形態に係る整合過程を説明するための模式図である。 本発明の実施形態に係る整合過程を説明するための模式図である。 本発明の実施形態に係る整合過程を説明するための模式図である。 本発明の実施形態に係る整合過程を説明するための模式図である。
以下、添付した図面を参照して、本発明の実施形態を説明する。
図2は、本発明の実施形態に係るC-armベースの医用画像システムの概略的な模式図である。
図2を参照すると、本発明の実施形態に係るC-armベースの医用画像システムは、C-arm10と、第1プレート20と、第2プレート30と、基準光学式マーカー40と、光学追跡装置50と、ディスプレイ60と、ユーザーインターフェース部70と、整合部80と、を含んで構成される。
C-arm10は、フレーム12の両端にX-線ソース14及びディテクター16が対向するように設けられ、フレーム12を回転または並進させるための駆動部18を含んで構成される。
第1プレート20は、多数の第1ボールマーカーが第1パターンを描いて形成された第1透過面21と、第1光学式マーカー22を有する。ここで、第1透過面21は、C-arm10のX-線ソース14とディテクター16との間のX-線経路と交差するように設けられ、第1ボールマーカーはX-線不透過性物質で構成される。第1光学式マーカー22は、第1プレート20の座標系を定義し、また、外部の光学追跡装置によって検出されるように設けられる。
第1プレート20は、C-armソース14及びディテクター16が第1位置で撮影する際に、第1X-線経路上に位置して、ソース14及びディテクター16の位置が第2位置に変更されて撮影する際に、第2X-線経路上に位置するようにC-arm10に固定されることができる。例えば、第1プレート20は、ディテクター16の前面に固着されるように固定部材(図示せず)を含むことができる。
第2プレート30は、多数の第2ボールマーカーが第2パターンを描いて形成された第2透過面31と第2光学式マーカー32を有する。第2透過面31は、C-arm10のX-線ソース14とディテクター16との間のX-線経路と交差するように設けられ、第2ボールマーカーはX-線不透過性物質で構成される。第2光学式マーカー32は、第2プレート30の座標系を定義し、また、外部の光学追跡装置によって検出されるように設けられる。
第2プレート30は、第1プレート20のように、第1及び第2位置に対応して、第1X-線経路及び第2X-線経路上にそれぞれ交差するように固定または半固定することができる。
基準光学式マーカー40は、C-arm10が運営される医療空間の座標系を定義するための基準を提供するためのもので、外部の光学追跡装置に検出されるように設けられる。
光学追跡装置50は、第1及び第2光学式マーカー22、32と基準光学式マーカー40のように光学式マーカーを認識するためのもので、OTS(Optical Tracking System)に実装されることができる。商用化された医療用OTS(Optical Tracking System)は、光学式マーカーまでの距離、方位、高さの外にも、光学式マーカー座標系の間の変換機能も提供するので、商用化された医療用OTSで光学追跡装置50を実装することができる。
ディスプレイ60は、ディテクター16で撮影したX-線画像を施術者に提供するためのもので、ユーザーインターフェース部70例えば、タッチスクリーン、マウスなどを介して施術者が入力する位置情報を受けるためのものであり、入力された位置情報がディスプレイ60を介してX-線画像に重畳表示されるようにすることができる。
整合部80は、光学追跡装置50で得られた第1及び第2光学式マーカー22、32の座標系、基準光学式マーカー40の基準座標系及びディテクター16で撮影した画像をもとに、画像のピクセルと3D空間座標との間の整合関係を算出する。整合部80は、座標系をもとに画像処理プロセスを行うためのプロセッサ、メモリ、及びソフトウェアを介して実装されることができる。
図3は、本発明の実施形態に係る2D画像のピクセルと3D空間座標との間の整合方法を示すフローチャートであり、図4乃至図8は、本発明の実施形態に係る整合方法をステップ別に説明するための模式図である。
図3乃至図8を参照して、図2に示す医用画像システム及び整合部80の動作を具体的に説明する。
まず、C-armソース14とディテクター16が第1位置に置かれた状態で、ソース14がX-線を患者の患部に照射して、ディテクター16が第1撮影画像を取得する(S1)。ここで、第1位置は任意の位置に施術者によって選択されることができるが、手術のプロセス上AP(Anterior-Posterior)画像とLL(Lateral-Lateral)画像を用いるので、本実施形態においてはAP画像を得ることができる位置に選択ようにする。ただし、本発明は、正確なAP画像を要しないので、第1位置はAP画像と近接した類似画像を得ることができる位置にして、ここで撮影した画像も総称してAP画像と呼ぶことにする。第1位置に対応して、点源の形態のX-線ソース14から照射されたX-線が第1X-線経路に沿って被検体を投射してディテクター16に入射され、ディテクター16が第1撮影画像のAP画像を取得する。施術者は、正確なAPの位置を合わせるために、多数の画像を撮影する必要がないので、使用上の利便性が大幅に向上する。
整合部80は、第1撮影画像をX-線の照射経路に沿って、第1プレート20上に逆投影して、第1投影画像を求める(S2)。ここで、第1撮影画像上に位置する第1ボールマーカーと、第1プレート20上の第1ボールマーカーを「基準点」にマッチングすることにより、第1投影画像を求めることができる。
点源形態のX-線ソース14から照射された第1X-線経路は円錐状に拡散されるので、周知の画像ワーピング(warping)アルゴリズムを第1撮影画像に適用して非線形な変換関係の第1投影画像を実装することができる。ここで、第1投影画像と等しい平面の第1プレート20上の第1ボールマーカーの位置と第1撮影画像上に結ばれた第1ボールマーカーの位置を基準点として対応させて、第1撮影画像上の他のピクセルらは、線形または非線形の補間を介して第1投影画像を求めることができる。
例えば、図4に示すように、第1プレート20の第1ボールマーカーを基準にrigid body landmark transform(Jounal of the Optical Society of America A.4:629~642に収録されたBerthold KP Horn著書の「Closed -form solution of absolute orientation using unit quaternions」を参照)を適用して変換行列を求め、「thin plate spline transform」(J.Duchon著書の「Splines minimizing rotation invariant semi-norms in Sobolev spaces”-consturtive therory of functions of several variables、oberwolfach 1976参照)を適用してspline曲線に基づくデータ補間及びスムージング(smoothing)することにより、第1撮影画像であるAP画像を第1投影画像に変換することができる。
第1撮影画像と第1投影画像との間の変換関係を規定する変換行列を介して、第1撮影画像の任意のピクセルが第1投影画像のピクセルに変換され、第1投影画像のピクセルは、第1プレート20の第1光学式マーカー22を媒介として、医療空間の基準座標系上の座標に変換することができる。
その後、整合部80は、第1投影画像に位置した第2ボールマーカーと、第2プレート30上の第2ボールマーカーとの間の関係を介して前記第1撮影画像のついてのC-armソース14の位置(以下、「第1ソースの位置」)を求める(S3)。ここで、位置情報を知ることができない第1撮影画像の代わりをして、第1光学式マーカー22を介して3D位置座標を知ることができる第1投影画像を基準する。
図5を参照すると、第1撮影画像上の第2ボールマーカーが第1投影画像上にワーピングされた後、第1投影画像上の第2ボールマーカーと第2プレート30上の第2ボールマーカーの位置を結ぶことにより、延びた線らの交点で第1ソースの位置SAPを求めることができる。第1投影画像の位置情報及び第2プレート30の位置情報が光学追跡装置50によって取得されるので、第1ソースの位置SAPを算出することができる。
その後、C-armソース14とディテクター16が第2位置に置かれた状態で、ソース14がX-線を患者の患部に照射して、ディテクター16が第2撮影画像を取得する(S4)。ここで、第2位置は任意の位置に施術者によって選択されることができるが、本実施形態においてはLL画像を得ることができる位置に選択する。ただし、本発明は、正確なLL画像を要しないので、第2位置はLL画像と類似した画像を得ることができる位置にして、ここで撮影した画像も総称してLL画像と呼ぶことにする。
整合部80は、第2撮影画像を第2X-線経路に沿って、第1プレート20上に逆投影して、第2投影画像を求める(S5)。ステップS2と等しい方式で第2撮影画像上に位置する複数の第1ボールマーカーと、第1プレート20上の第1ボールマーカーを「基準点」にマッチングすることにより、第2投影画像を求めることができ、周知の画像ワーピング(warping)アルゴリズムを適用して実装することができる。
整合部80は、第2投影画像に位置する第2ボールマーカーと、第2プレート30上の第2ボールマーカーとの間の位置の関係を介して第2位置に対応するC-armソース14の位置(以下、「第2ソースの位置」)を求める(S6)。
図6は、第1ソースの位置SAPで開始され第1プレート20まで円錐状に拡散される第1X-線と、第2ソースの位置SLLで開始され第1プレート20まで円錐状に拡散される第2X-線が重なる空間が形成されることを示す。この重なる空間(以下、「照影空間」)は、第1及び第2投影画像上の関心のピクセルが位置する空間又は被検体が位置する3次元の照影空間を概念的に示す。
その後、整合部80は照影空間内の座標と撮影画像上のピクセルを整合する(S7)。
図7に示すように、照影空間内のある座標Pは、第1X-線によって第1投影画像に投影されて得られる第1ピクセルPAPVDと、第2X-線によって第2投影画像に投影されて得られる第2ピクセルPLLVDで整合され、再び第1及び第2投影画像上の第1及び第2ピクセルPAPVD、PLLVDは逆ワーピング行列TAPwarp -1によって第1及び第2撮影画像上のピクセルPAPimg、PLLimgに整合されて、ディスプレイ60に表示されることができる。
ここで、照影空間内のあるピクセルは、例えば、手術器具のチップの位置を示すことができる。光学追跡装置50は、手術器具の第3光学式マーカーを認識しチップの位置情報である座標を得ることができ、整合部80はチップの座標をもとに、第1及び第2撮影画像上のチップの位置を算出して、ディスプレイ60を介して表示されることができる。これにより、施術者は、手術器具の位置をリアルタイムで与えられた二つの2D画像にリアルタイムで表示することができて、追跡機能とナビゲーション機能と一緒に用いることができる。
一方、図8は、第1撮影画像上の第1関心ピクセルPAPimgと、これに対応する第2撮影画像上の第2関心ピクセルPLLimgが第1及び第2投影画像上にワーピングされた後、逆投影されて照影空間内で交差点Pを形成するに伴い、照影空間内のある座標Pに整合されることを示す。
具体的にみると、第1撮影画像上の第1関心ピクセルPAPimgに対応する第1投影画像上の第1ピクセルPAPVDからソース14に向かって第1X-線経路に沿って逆投影されるに伴い、照影空間と交差する第1ラインPin2-Pin1が形成される。第1ラインPin2-Pin1は、照影空間から第2投影画像上のPin4-Pin3ラインに整合され、再び逆ワーピングTLLwarp -1第2撮影画像上で整合されてPLLimg1-PLLimg2ラインで表現することができ、施術者が選択する第2撮影画像上に整合されたPLLimg1-PLLimg2ラインのピクセルの中、第2関心ピクセルPLLimg3を選択することができる。第2関心ピクセルPLLimg3はワーピングされて、第2投影画像上のあるピクセルPLLVDに整合され、これにより、結果的に第2関心ピクセルPLLimg3と、第1関心ピクセルPAPimgの交差点Pに対応する照影空間内のある座標が整合された座標で算出される。
第1関心ピクセルPAPimgと第2関心ピクセルPLLimg3は施術者によって被検体の等しい特徴点で確認された点で選択されることができる。したがって、施術者は、ユーザーインターフェース部70を介して第1撮影画像及び第2撮影画像に所望の点を、第1関心ピクセルPAPimg及び第2関心ピクセルPLLimg3で選択でき、これは空間座標に変換されて、医療用ロボットなどの手術プランニング情報として提供されることを知ることができる。
今まで本発明の実施形態を説明したが、本発明が属する技術分野の通常の知識を有する者は、本発明の技術的思想を逸脱しない範囲内で、本発明の実施形態を変形したり置換することが可能であることを理解することができる。
例えば、第1プレート20と第2プレート30の固定位置は、X-線経路と交差する範囲内で変更が可能であり、第1及び第2プレート20、30上のマーカーの形態とパターンは等しい機能と目的を達成する範囲内で選択することができる。
また、図3に示すフローチャートの整合ステップは、論理的に前後関係が成立する場合を除いて、その前後関係を変更することが可能であり、本実施形態においては二つの画像を用いているが、より多くの画像をもとに整合をすることができる。
したがって、前述した本発明の実施形態は、例示的なもので理解されるべきであり、本発明の保護範囲は、特許請求の範囲に記載された技術的思想とその均等物に及ぶものでなければならならない。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
医用画像システムにおいて、
X-線ソース及びディテクターを有するC型透視照影装置(以下、「C-arm」という)と、
前記X-線ソース及び前記ディテクターとの間のX-線経路に設けられて、X-線不透過性の複数の第1ボールマーカーが備えられた第1透過面及び第1光学式マーカーを有する第1プレートと、
前記X-線ソース及び前記ディテクターとの間のX-線経路に設けられて、X-線不透過性の複数の第2ボールマーカーが備えられた第2透過面及び第2光学式マーカーを有する第2プレートと、
3次元基準座標系を提供するための基準光学式マーカーと、
前記第1及び第2光学式マーカー及び前記基準光学式マーカーの位置を認識する光学追跡装置と、
前記ディテクターが互いに異なる第1位置及び第2位置で被検体について第1撮影画像及び第2撮影画像をそれぞれ取得し、前記第1及び第2撮影画像上の前記第1及び第2ボールマーカーの位置と前記光学追跡装置から得られた位置情報を基に、3次元基準座標系上の座標と、前記第1及び第2撮影画像上の位置との間の整合関係を算出する整合部を含むことを特徴とする医用画像システム。
[2]
前記整合部は、
前記第1及び第2撮影画像上の前記第1ボールマーカーの位置と、前記第1光学式マーカーを媒介として算出される前記第1プレート上の第1ボールマーカーの位置間の対応関係を基に、前記第1及び第2撮影画像を前記X-線経路に沿って前記第1プレート上にそれぞれ投影して、第1及び第2投影画像を求めることを特徴とする[1]に記載の医用画像システム。
[3]
前記整合部は、
前記第1及び第2投影画像上の前記第2ボールマーカーの位置と、前記第2光学式マーカーを媒介として算出される前記第2プレート上の第2ボールマーカーの位置間の対応関係を基に、前記第1及び第2撮影画像にそれぞれ対応する前記X-線ソースの第1及び第2ソースの位置を求めることを特徴とする[2]に記載の医用画像システム。
[4]
前記整合部は、前記第1ソースの位置及び前記第1投影画像の位置の関係から前記第1ソースの位置から照射される第1X-線の投影経路及び前記第2ソースの位置及び前記第2投影画像の位置の関係から前記第2ソースの位置から照射される第2X-線の投影経路が重なる3次元照影空間を算出することを特徴とする[3]に記載の医用画像システム。
[5]
前記第1及び第2撮影画像を表示するためのディスプレイと、
施術者から前記第1及び第2撮影画像上に任意の位置情報の入力を受けるためのユーザーインターフェースを含み、
前記整合部は、前記施術者から入力された位置情報に対応する前記基準座標系上の空間座標を算出することを特徴とする[1]乃至[4]の中のいずれか一項に記載の医用画像システム。
[6]
第3光学式マーカーを有する医療用処置具をさらに含み、
前記整合部は、前記光学追跡装置が前記第3光学式マーカーを媒介として取得した前記医療用処置具の位置座標を取得し、前記変換関係を基に、前記第1及び第2撮影画像上で前記医療用処置具の位置情報を算出することを特徴とする[1]乃至[4]の中のいずれか一項に記載の医用画像システム。
[7]
前記第1プレートは、前記第1透過面が前記ディテクターの前面部に位置するように、前記C-armに固定するための固定部材を含むことを特徴とする[1]乃至[4]の中のいずれか一項に記載の医用画像システム。
[8]
前記第2プレートは、前記第1プレートと前記X-線ディテクターとの間に設けられることを特徴とする[1]乃至[4]の中のいずれか一項に記載の医用画像システム。
[9]
C-armの2D画像と3D空間の整合方法において、
第1位置でC-armディテクターが第1撮影画像を取得するステップと、
前記第1撮影画像を前記第1位置に対応する第1X-線経路に沿って、第1プレート上に逆投影して第1投影画像を求めるステップであって、前記第1プレートは、前記第1X-線経路上に設けられ、医療空間座標系(以下、「基準座標系」)で位置の識別が可能な第1光学式マーカーを有するステップと、
前記第1X-線経路上に設けられた第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の第2プレートのボールマーカーの位置の対応関係を基に、前記第1位置に対応するC-armソースの位置である第1ソースの位置を算出するステップと、
第2位置でC-armディテクターが第2撮影画像を取得するステップと、
前記第2撮影画像を前記第2位置に対応する第2X-線経路に沿って前記第2X-線経路上に設けられた第1プレート上に逆投影して、第2投影画像を求めるステップと、
前記第2X-線経路上に設けられた前記第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の前記第2プレートのボールマーカーの位置の対応関係を基に、前記第2位置に対応する前記C-armソースの位置である第2ソースの位置を算出するステップと、
前記第1ソースの位置と前記第1投影画像上の第1ピクセルを結ぶ第1ラインと、前記第2ソースの位置と前記第2投影画像上の第2ピクセルを結ぶ第2ラインの交差点の座標を算出するステップと、を含むことを特徴とするC-armの2D画像と3D空間の整合方法。
[10]
C-armの2D画像と3D空間の整合方法において、
第1位置でC-armディテクターが第1撮影画像を取得するステップと、
前記第1撮影画像を前記第1位置に対応する第1X-線経路に沿って、第1プレート上に逆投影して、第1投影画像を求めるステップであって、前記第1プレートは、前記第1X-線経路上に設けられて基準座標系での位置の識別が可能な第1光学式マーカーを有するステップと、
前記第1X-線経路上に設けられた第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の第2プレートのボールマーカーの位置の対応関係を基に、前記第1位置に対応するC-armソースの位置である第1ソースの位置を算出するステップと、
第2位置でC-armディテクターが第2撮影画像を取得するステップと、
前記第2撮影画像を前記第2位置に対応する第2X-線経路に沿って前記第2X-線経路上に設けられた第1プレート上に逆投影して、第2投影画像を求めるステップと、
前記第2X-線経路上に設けられた前記第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の前記第2プレートのボールマーカーの位置の対応関係を基に、前記第2位置に対応する前記C-armソースの位置である第2ソースの位置を算出するステップと、
任意の空間座標が前記第1X-線経路に沿って前記第1投影画像に投影される第1ピクセルを算出し、前記任意の空間座標が前記第2X-線経路に沿って前記第2投影画像に投影される第2ピクセルを算出するステップと、を含むことを特徴とするC-armの2D画像と3D空間の整合方法。
[11]
前記第1プレート上で前記第1撮影画像の第1投影画像を求めるステップは、前記第1プレートのボールマーカーに対応する前記第1撮影画像上での位置及び前記基準座標系上の位置を基準に前記第1撮影画像をワーピングして前記第1投影画像を算出することを含むことを特徴とする[9]または[10]に記載のC-armの2D画像と3D空間の整合方法。
[12]
前記第1プレート上で前記第2撮影画像の第2投影画像を求めるステップは、前記第1プレートのボールマーカーに対応する前記第2撮影画像上での位置及び前記基準座標系上の位置を基準に前記第2撮影画像をワーピングして前記第2投影画像を算出することを含むことを特徴とする[9]または[10]に記載のC-armの2D画像と3D空間の整合方法。
10:C-arm
20:第1プレート
30:第2プレート
40:基準光学式マーカー
50:光学追跡装置
60:ディスプレイ
70:ユーザーインターフェース部
80:整合部

Claims (12)

  1. 医用画像システムにおいて、
    X-線ソース及びディテクターを有するC型透視照影装置(以下、「C-arm」という)と、
    前記X-線ソース前記ディテクターとの間のX-線経路に設けられて、X-線不透過性の複数の第1ボールマーカーが備えられた第1透過面及び第1光学式マーカーを有する第1プレートと、
    前記X-線ソース前記ディテクターとの間のX-線経路に設けられて、X-線不透過性の複数の第2ボールマーカーが備えられた第2透過面及び第2光学式マーカーを有する第2プレートと、
    3次元基準座標系を提供するための基準光学式マーカーと、
    前記第1及び第2光学式マーカー及び前記基準光学式マーカーの位置を認識する光学追跡装置と、
    前記ディテクターが互いに異なる第1位置及び第2位置で被検体について第1撮影画像及び第2撮影画像をそれぞれ取得し、前記第1及び第2撮影画像上の前記第1及び第2ボールマーカーの位置と前記光学追跡装置から得られた位置情報を基に、3次元基準座標系上の座標と、前記第1及び第2撮影画像上の位置との間の整合関係を算出する整合部を含むことを特徴とする医用画像システム。
  2. 前記整合部は、
    前記第1及び第2撮影画像上の前記第1ボールマーカーの位置と、前記第1光学式マーカーを媒介として算出される前記第1プレート上の第1ボールマーカーの位置間の対応関係を基に、前記第1及び第2撮影画像を前記X-線経路に沿って前記第1プレート上にそれぞれ投影して、第1及び第2投影画像を求めることを特徴とする請求項1に記載の医用画像システム。
  3. 前記整合部は、
    前記第1及び第2投影画像上の前記第2ボールマーカーの位置と、前記第2光学式マーカーを媒介として算出される前記第2プレート上の第2ボールマーカーの位置間の対応関係を基に、前記第1及び第2撮影画像にそれぞれ対応する前記X-線ソースの第1及び第2ソースの位置を求めることを特徴とする請求項2に記載の医用画像システム。
  4. 前記整合部は前記第1ソースの位置から照射される第1X-線の投影経路及び前記第2ソースの位置から照射される第2X-線の投影経路が重なる3次元照影空間を算出することを特徴とする請求項3に記載の医用画像システム。
  5. 前記第1及び第2撮影画像を表示するためのディスプレイと、
    施術者から前記第1及び第2撮影画像上に任意の位置情報の入力を受けるためのユーザーインターフェースを含み、
    前記整合部は、前記施術者から入力された位置情報に対応する前記基準座標系上の空間座標を算出することを特徴とする請求項1乃至請求項4の中のいずれか一項に記載の医用画像システム。
  6. 第3光学式マーカーを有する医療用処置具をさらに含み、
    前記整合部は、前記光学追跡装置が前記第3光学式マーカーを媒介として取得した前記医療用処置具の位置座標を取得し、前記整合関係を基に、前記第1及び第2撮影画像上で前記医療用処置具の位置情報を算出することを特徴とする請求項1乃至請求項4の中のいずれか一項に記載の医用画像システム。
  7. 前記第1プレートは、前記第1透過面が前記ディテクターの前面部に位置するように、前記C-armに固定するための固定部材を含むことを特徴とする請求項1乃至請求項4の中のいずれか一項に記載の医用画像システム。
  8. 前記第2プレートは、前記第1プレートと前記X-線ディテクターとの間に設けられることを特徴とする請求項1乃至請求項4の中のいずれか一項に記載の医用画像システム。
  9. C-armの2D画像と3D空間の整合方法において、
    第1位置でC-armディテクターが第1撮影画像を取得するステップと、
    前記第1撮影画像を前記第1位置に対応する第1X-線経路に沿って、第1プレート上に逆投影して第1投影画像を求めるステップであって、前記第1プレートは、前記第1X-線経路上に設けられ、医療空間座標系(以下、「基準座標系」)で位置の識別が可能な第1光学式マーカーを有するステップと、
    前記第1X-線経路上に設けられた第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の第2プレートのボールマーカーの位置の対応関係を基に、前記第1位置に対応するC-armソースの位置である第1ソースの位置を算出するステップと、
    第2位置でC-armディテクターが第2撮影画像を取得するステップと、
    前記第2撮影画像を前記第2位置に対応する第2X-線経路に沿って前記第2X-線経路上に設けられた第1プレート上に逆投影して、第2投影画像を求めるステップと、
    前記第2X-線経路上に設けられた前記第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の前記第2プレートのボールマーカーの位置の対応関係を基に、前記第2位置に対応する前記C-armソースの位置である第2ソースの位置を算出するステップと、
    前記第1ソースの位置と前記第1投影画像上の第1ピクセルを結ぶ第1ラインと、前記第2ソースの位置と前記第2投影画像上の第2ピクセルを結ぶ第2ラインの交差点の座標を算出して、前記第1ピクセル及び前記第2ピクセルに対応する前記第1撮影画像及び前記第2撮影画像上のピクセルを前記交差点の座標に整合させるステップと、を含むことを特徴とするC-armの2D画像と3D空間の整合方法。
  10. C-armの2D画像と3D空間の整合方法において、
    第1位置でC-armディテクターが第1撮影画像を取得するステップと、
    前記第1撮影画像を前記第1位置に対応する第1X-線経路に沿って、第1プレート上に逆投影して、第1投影画像を求めるステップであって、前記第1プレートは、前記第1X-線経路上に設けられて基準座標系での位置の識別が可能な第1光学式マーカーを有するステップと、
    前記第1X-線経路上に設けられた第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の第2プレートのボールマーカーの位置の対応関係を基に、前記第1位置に対応するC-armソースの位置である第1ソースの位置を算出するステップと、
    第2位置でC-armディテクターが第2撮影画像を取得するステップと、
    前記第2撮影画像を前記第2位置に対応する第2X-線経路に沿って前記第2X-線経路上に設けられた第1プレート上に逆投影して、第2投影画像を求めるステップと、
    前記第2X-線経路上に設けられた前記第2プレートのボールマーカーの前記基準座標系上の位置と前記第1投影画像上の前記第2プレートのボールマーカーの位置の対応関係を基に、前記第2位置に対応する前記C-armソースの位置である第2ソースの位置を算出するステップと、
    任意の空間座標が前記第1X-線経路に沿って前記第1投影画像に投影される第1ピクセルを算出し、前記任意の空間座標が前記第2X-線経路に沿って前記第2投影画像に投影される第2ピクセルを算出して、前記空間座標を前記第1ピクセル及び前記第2ピクセルに整合させるステップと、
    前記第1投影画像上の前記第1ピクセル及び前記第2投影画像上の前記第2ピクセルを逆ワーピング行列によって前記第1撮影画像及び前記第2撮影画像上のピクセルに整合させるステップと、を含むことを特徴とするC-armの2D画像と3D空間の整合方法。
  11. 前記第1プレート上で前記第1撮影画像の第1投影画像を求めるステップは、前記第1プレートのボールマーカーに対応する前記第1撮影画像上での位置及び前記基準座標系上の位置を基準に前記第1撮影画像をワーピングして前記第1投影画像を算出することを含むことを特徴とする請求項9または請求項10に記載のC-armの2D画像と3D空間の整合方法。
  12. 前記第1プレート上で前記第2撮影画像の第2投影画像を求めるステップは、前記第1プレートのボールマーカーに対応する前記第2撮影画像上での位置及び前記基準座標系上の位置を基準に前記第2撮影画像をワーピングして前記第2投影画像を算出することを含むことを特徴とする請求項9または請求項10に記載のC-armの2D画像と3D空間の整合方法。
JP2021553134A 2019-03-13 2020-03-13 C-armベースの医用画像システム及び2D画像と3D空間の整合方法 Active JP7213413B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2019-0028592 2019-03-13
KR1020190028592A KR102203544B1 (ko) 2019-03-13 2019-03-13 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법
PCT/KR2020/003564 WO2020185048A2 (ko) 2019-03-13 2020-03-13 C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법

Publications (2)

Publication Number Publication Date
JP2022523587A JP2022523587A (ja) 2022-04-25
JP7213413B2 true JP7213413B2 (ja) 2023-01-27

Family

ID=72426434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021553134A Active JP7213413B2 (ja) 2019-03-13 2020-03-13 C-armベースの医用画像システム及び2D画像と3D空間の整合方法

Country Status (6)

Country Link
US (1) US11337763B2 (ja)
EP (1) EP3939509A4 (ja)
JP (1) JP7213413B2 (ja)
KR (1) KR102203544B1 (ja)
CN (1) CN113556977A (ja)
WO (1) WO2020185048A2 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11596369B2 (en) * 2016-05-03 2023-03-07 Daegu Gyeongbuk Institute Of Science And Technology Navigation system for vascular intervention and method for generating virtual x-ray image
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11931198B2 (en) 2019-02-15 2024-03-19 Koninklijke Philips N.V. X-ray calibration for display overlays onto X-ray images
WO2020165422A1 (en) 2019-02-15 2020-08-20 Koninklijke Philips N.V. X-ray ripple markers for x-ray calibration
US11918406B2 (en) 2019-02-15 2024-03-05 Koninklijke Philips N.V. Marker registration correction by virtual model manipulation
KR102166149B1 (ko) 2019-03-13 2020-10-15 큐렉소 주식회사 페디클 스크류 고정 플래닝 시스템 및 방법
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
KR102394901B1 (ko) 2020-04-06 2022-05-09 큐렉소 주식회사 2차원 의료영상 기반 척추 수술 플래닝 장치 및 방법
KR102615255B1 (ko) 2020-11-30 2023-12-19 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법
CN115211961A (zh) * 2021-04-17 2022-10-21 诺创智能医疗科技(杭州)有限公司 定位方法、装置、系统及计算机可读存储介质
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11918304B2 (en) * 2021-12-20 2024-03-05 Globus Medical, Inc Flat panel registration fixture and method of using same
KR102443809B1 (ko) 2021-12-28 2022-09-19 주식회사 뉴비전네트웍스 2개 이상의 영상 이미지를 정합하는 영상처리 시스템 제공방법
KR102612603B1 (ko) 2022-11-02 2023-12-12 큐렉소 주식회사 2d-3d 이미지 정합 방법 및 이를 수행하는 수술용 로봇 시스템
CN115869072B (zh) * 2023-02-27 2023-05-30 武汉市第四医院 一种骨折复位机器人系统及其控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003180668A (ja) 2001-11-16 2003-07-02 Koninkl Philips Electronics Nv 重力に感応な画像捕捉装置を校正し、画像捕捉装置を用いて撮像する方法及び装置
JP2016539757A (ja) 2013-11-04 2016-12-22 サージヴィジオ 二次元x線画像から三次元画像を再構築する方法
US20170319156A1 (en) 2016-05-03 2017-11-09 Daegu Gyeongbuk Institute Of Science And Technology Navigation system for vascular intervention and method for generating virtual x-ray image
JP2017535308A (ja) 2014-09-19 2017-11-30 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムの座標系整合方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2640394B1 (fr) * 1988-12-14 1991-02-15 Schlumberger Etienne Procede pour coordonner plusieurs images d'un meme objet et dispositif pour sa mise en oeuvre
US5963613A (en) 1997-12-31 1999-10-05 Siemens Corporate Research, Inc. C-arm calibration method for 3D reconstruction in an imaging system
US6206566B1 (en) * 1998-11-02 2001-03-27 Siemens Aktiengesellschaft X-ray apparatus for producing a 3D image from a set of 2D projections
CA2334495A1 (en) * 2001-02-06 2002-08-06 Surgical Navigation Specialists, Inc. Computer-aided positioning method and system
CA2393101A1 (en) * 2002-07-11 2004-01-11 Martin Cyr Apparatus, system and method of calibrating medical imaging systems
KR100726022B1 (ko) * 2005-10-26 2007-06-12 한양대학교 산학협력단 복수의 2차원 영상을 이용한 3차원 수술공간 계측 시스템및 그 방법
EP2245986B1 (de) * 2008-08-22 2013-10-16 BrainLAB AG Pyramidenförmige Röntgenmarkervorrichtung
TW201116259A (en) * 2009-11-04 2011-05-16 Accumis Inc Image calibration device integrated with optical locater
EP2593922A1 (en) * 2010-07-14 2013-05-22 BrainLAB AG Method and system for determining an imaging direction and calibration of an imaging apparatus
US10842461B2 (en) * 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
US9959631B2 (en) 2014-02-21 2018-05-01 Samsung Electronics Co., Ltd. Tomography apparatus and method for reconstructing tomography image thereof
KR20150099375A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 컴퓨터 단층 촬영 장치 및 그에 따른 ct 영상 복원 방법
KR102214637B1 (ko) * 2014-03-12 2021-02-10 주식회사바텍 의료용 영상 시스템 및 이의 구동 방법
KR101954868B1 (ko) * 2016-05-03 2019-03-08 재단법인대구경북과학기술원 혈관 중재 시술을 위한 내비게이션 시스템 및 가상의 엑스선 이미지 생성 방법
CN106890031B (zh) * 2017-04-11 2020-05-05 东北大学 一种标记物识别及标记点定位方法及手术导航系统
KR102285337B1 (ko) * 2017-04-25 2021-08-02 재단법인대구경북과학기술원 엑스선 장치의 캘리브레이션 방법 및 장치
CN107049488B (zh) * 2017-05-27 2022-01-07 北京航空航天大学 一种单平面手术定位方法及模型

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003180668A (ja) 2001-11-16 2003-07-02 Koninkl Philips Electronics Nv 重力に感応な画像捕捉装置を校正し、画像捕捉装置を用いて撮像する方法及び装置
JP2016539757A (ja) 2013-11-04 2016-12-22 サージヴィジオ 二次元x線画像から三次元画像を再構築する方法
JP2017535308A (ja) 2014-09-19 2017-11-30 コー・ヤング・テクノロジー・インコーポレーテッド オプティカルトラッキングシステム及びオプティカルトラッキングシステムの座標系整合方法
US20170319156A1 (en) 2016-05-03 2017-11-09 Daegu Gyeongbuk Institute Of Science And Technology Navigation system for vascular intervention and method for generating virtual x-ray image

Also Published As

Publication number Publication date
KR20200109489A (ko) 2020-09-23
KR102203544B1 (ko) 2021-01-18
EP3939509A2 (en) 2022-01-19
WO2020185048A3 (ko) 2020-10-29
JP2022523587A (ja) 2022-04-25
WO2020185048A2 (ko) 2020-09-17
EP3939509A4 (en) 2022-12-07
CN113556977A (zh) 2021-10-26
US20220039874A1 (en) 2022-02-10
US11337763B2 (en) 2022-05-24

Similar Documents

Publication Publication Date Title
JP7213413B2 (ja) C-armベースの医用画像システム及び2D画像と3D空間の整合方法
JP5425808B2 (ja) 追跡品質を保証する立体視撮像対における単一x線画像の使用
US9724049B2 (en) Radiotherapy system
US20200275988A1 (en) Image to world registration for medical augmented reality applications using a world spatial map
US7697147B2 (en) Apparatus and method for the representation of an area on the surface of a patient's body
US6724922B1 (en) Verification of positions in camera images
JP7170705B2 (ja) 医療処置中のエフェクタの画像定位のためのシステム及び方法
US9715739B2 (en) Bone fragment tracking
US20130094742A1 (en) Method and system for determining an imaging direction and calibration of an imaging apparatus
TW201801682A (zh) 影像增強真實度之方法與應用該方法在可穿戴式眼鏡之手術導引
US8121380B2 (en) Computerized imaging method for a three-dimensional reconstruction from two-dimensional radiological images; implementation device
US20130066196A1 (en) Determining and verifying the coordinate transformation between an x-ray system and a surgery navigation system
JP2009022754A (ja) 放射線画像の位置揃えを補正する方法
US11948265B2 (en) Image data set alignment for an AR headset using anatomic structures and data fitting
JP2022532167A (ja) 手術中の3次元可視化
JPH11197259A (ja) 治療システムにおける患者の位置決め装置
US20090086912A1 (en) Image display apparatus and x-ray diagnostic apparatus
Albiol et al. Geometrical calibration of x-ray imaging with rgb cameras for 3d reconstruction
CN106175931A (zh) 荧光镜视场的标记
JP2023116743A (ja) 椎弓根スクリューの固定プランニングシステム及び方法
Chen et al. Video-guided calibration of an augmented reality mobile C-arm
KR101592444B1 (ko) 투명디스플레이를 이용한 의료용 영상증강 장치 및 구현 방법
Zhang et al. Catheter localization for vascular interventional robot with conventional single C-arm
Lin et al. Optimization model for the distribution of fiducial markers in liver intervention
TWI836492B (zh) 註冊二維影像資料組與感興趣部位的三維影像資料組的方法及導航系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7213413

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150