JP2015526184A - コンピュータ断層撮影システム - Google Patents

コンピュータ断層撮影システム Download PDF

Info

Publication number
JP2015526184A
JP2015526184A JP2015527946A JP2015527946A JP2015526184A JP 2015526184 A JP2015526184 A JP 2015526184A JP 2015527946 A JP2015527946 A JP 2015527946A JP 2015527946 A JP2015527946 A JP 2015527946A JP 2015526184 A JP2015526184 A JP 2015526184A
Authority
JP
Japan
Prior art keywords
image
computed tomography
optical
optical image
marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015527946A
Other languages
English (en)
Other versions
JP5883998B2 (ja
Inventor
ヨハネス マリア ヤンセン,エリク
ヨハネス マリア ヤンセン,エリク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2015526184A publication Critical patent/JP2015526184A/ja
Application granted granted Critical
Publication of JP5883998B2 publication Critical patent/JP5883998B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0223Operational features of calibration, e.g. protocols for calibrating sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0487Motor-assisted positioning

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

本発明は、CT撮像領域(6)内、特に、CTシステムのボア(13)内の対象(5)のCT画像と、対象がCT撮像領域外に動かされた後に、特に、対象がボアの正面に位置付けられる場合に生成される対象の光学画像との統合である統合画像を生成する画像統合ユニット(12)を有するCTシステム(1)に係る。統合画像は、CT画像に基づき提供された経路を更に示し、その経路に沿って、インターベンション器具(26)は対象(5)内で動かされるべきである。統合画像を見ることで、ユーザは、ポジション確認のための多くの付加的なCT画像を取得する必要なしに、その経路に沿って器具を正確に動かすことができる。これは、インターベンションプロシージャに必要とされる放射線量及び時間を低減することができる。

Description

本発明は、コンピュータ断層撮影システムと、該コンピュータ断層撮影システムを有するインターベンションシステムとに係る。本発明は更に、統合画像を生成するための統合画像生成方法及びコンピュータプログラムに係る。
コンピュータ断層撮影(CT)により誘導されるバイオプシーにおいて、患者はコンピュータ断層撮影画像生成ユニットのCT撮像領域内に動かされ、コンピュータ断層撮影画像生成ユニットは、CT撮像領域内の患者のCT画像を生成する。CT画像が生成された後、患者は、コンピュータ断層撮影画像生成ユニットの外に動かされる。次いで、医師は、グラフィカルユーザインターフェースを用いることによって、生成されたCT画像に基づき、針がバイオプシーの間に患者に挿入されるべき針経路を計画する。特に、患者の皮膚上の入口点から患者内の標的領域までの針経路が計画される。医師は、次いで、計画された針経路に基づき、患者の皮膚上の適切な入口点を推定する必要があり、その後に、医師は、針を適切な入口点で短い距離にわたって患者に挿入することができる。患者は、次いで、更なるCT画像を生成して、その更なるCT画像において示されている針の実際の位置及び向きを計画された針経路と比較するために、再びコンピュータ断層撮影画像生成ユニット内に動かされる。その後に、患者は再びコンピュータ断層撮影画像生成ユニットの外に動かされ、針の位置及び向きが計画された針経路に対応する場合は、針は進められ、針の位置及び/又は向きが計画された針経路に対応しない場合は、針の位置及び/又は向きは夫々修正される。患者をコンピュータ断層撮影画像生成ユニット内に動かすステップ、針の実際の位置及び向きを決定するために更なるCT画像を生成するステップ、針の実際の位置及び向きを計画された針経路と比較するステップ、及び針を進めるか、あるいは針の位置及び/又は向きを修正するステップは、針が標的領域に到達するまで実行される。
このCT誘導型バイオプシーは、CT撮像領域内外への患者の複数回の移動及び複数回のCTスキャン、すなわち、相対的高い放射線量を必要とする。
Behrooz Sharifi等,4th International Conference on Signal Processing and Communication Systems (ICSPCS),2010年,IEEE,p1-5(非特許文献1)においては、デジタル式赤外線検知カメラ及び高輝度赤外線照明器のシステムが、針を患者に挿入し、夫々の挿入ステップ後にCT撮像が続く段階的なプロシージャの間に、同軸バイオプシー針上の赤外線反射テープを追跡するために使用され、これにより、CT画像及び実際の針位置は、所望の針挿入角度を示すよう結合される。
Behrooz Sharifi等,4th International Conference on Signal Processing and Communication Systems (ICSPCS),2010年,IEEE,p1-5
本発明の目的は、CTシステムによって誘導されるインターベンションプロシージャの間の対象の移動の所要回数及び放射線量の低減を可能にするCTシステムを提供することである。本発明の更なる目的は、CTシステムを有するインターベンションシステムを提供することと、統合画像を生成するための統合画像生成方法及びコンピュータプログラムを提供することとであり、これらは、CTシステムによって誘導されるインターベンションプロシージャの間の対象の移動の所要回数及び放射線量の低減を可能にする。
本発明の第1の態様において、CTシステムが提供され、当該CTシステムは、
CT撮像領域内の対象のCT画像を生成するコンピュータ断層撮影画像生成ユニットと、
前記CT撮像領域外の外側領域内の前記対象の光学画像を取得する可視光光学画像取得ユニットと、
前記対象を支持し、該支持された対象を前記外側領域から前記CT撮像領域内へ及び前記CT撮像領域から前記外側領域内へ移動距離にわたって動かす可動式支持要素と、
前記生成されたCT画像に基づき、前記対象の外側表面上の位置から前記対象内の標的領域までの経路を提供する経路提供ユニットと、
前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を提供する空間関係提供ユニットと、
前記CT画像及び前記光学画像が統合され且つ前記提供される経路を更に示す統合画像を、前記CT画像、前記光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき生成する画像統合ユニットと
を有する。
統合画像は、CT撮像領域内で取得されたCT画像と、CT撮像領域外の外側領域において取得された光学画像との結合であり、この統合画像は、提供された経路を更に示すものであるから、ユーザは、対象がCT撮像領域外にある間、対象の外側表面上の入口位置でインターベンション器具を極めて正確に位置付けて、提供された経路に沿ってインターベンション器具を挿入することができる。入口位置でのインターベンション器具のこのような正確な設置と、提供された経路に沿った対象内へのインターベンション器具のこのような正確な挿入とは、インターベンション器具が提供された経路に沿って実際に挿入されることを確かにするための必要とされるCT画像の数の減少をもたらす。よって、CT撮像領域と外側領域との間の対象の移動の回数と、対象に適用される放射線量とは、低減され得る。外側領域からCT撮像領域内へ及びその逆の対象の必要とされる移動の回数の低減はまた、インターベンションプロシージャに必要とされる時間を削減する。
対象は人又は動物、特に、人の胸部又は人の他の部分のような、人又は動物の部分である。前記光学画像取得ユニットは、可視光を検出することによって光学画像を取得するよう構成され、前記光学画像取得ユニットは、1又は複数の光学画像を取得するよう構成され得る。前記可動式支持要素は、優先的に、対象を担持する、特に、人又は動物を担持する可動テーブルである。
前記経路提供ユニットは、ユーザが再構成されたCT画像に対して経路を入力することを可能にするユーザインターフェースを提供し、その入力された経路を提供するよう構成されてよい。例えば、CT画像は、CTシステムのディスプレイに示され得、ユーザインターフェースは、ユーザが、対象の外側表面上の入口位置から対象内の標的領域までの経路をCT画像において描くことを可能にしてよい。前記経路提供ユニットはこの経路を提供することができる。加えて、前記経路提供ユニットはまた、対象の外側表面上の入口位置から対象内の標的領域までの経路を、再構成されたCT画像に基づき自動的に決定するよう構成され得る。例えば、前記経路提供ユニットは、対象内の構造を自動的に検出し、その検出された構造と、内部構造に基づき対象内の経路を定義する所定の規則とに基づき、入口位置から標的領域までの経路を決定するよう構成され得る。
前記コンピュータ断層撮影画像生成ユニットは、CT撮像領域を囲むボアを優先的に有し、外側領域はボアの外にある。加えて、前記光学画像取得ユニットは更に、CT撮像領域内の対象の光学画像を取得するよう構成されてよい。前記光学画像取得ユニットはカメラを有してよく、幾つかのカメラはCT撮像領域をカバーするよう配置され、幾つかのカメラは外側領域をカバーするよう配置される。
前記空間関係提供ユニットは、前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係が予め記憶されている記憶ユニットであることができ、該記憶ユニットから、この空間関係は、当該空間関係を提供するために取り出され得る。なお、前記空間関係提供ユニットはまた、較正ステップの間に前記空間関係を決定するよう構成され得る。例えば、較正ステップにおいて、光学画像において検出可能な光マーカと、CT画像において検出可能なCTマーカとを有する較正要素が使用され得る。使用において、前記較正要素は、CT撮像領域から外側領域へ延在する。前記較正要素がCT撮像領域及び外側領域において配置される場合は、CTマーカはCT撮像領域にあり、光マーカは外側領域にあり、前記光マーカ及び前記CTマーカとの間のマーカ空間関係は知られている。この場合に、前記コンピュータ断層撮影画像生成ユニットは、CT撮像領域における前記較正要素の較正CT画像を生成するよう構成されてよく、前記光学画像取得ユニットは、外側領域内の前記較正要素の較正光学画像を取得するよう構成されてよい。加えて、前記空間関係提供ユニットは、前記較正光学画像における前記光マーカの位置と、前記較正CT画像における前記CTマーカの位置とを検出し、該検出された位置に基づき前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を決定するよう構成されてよい。前記光学画像取得ユニットがCT撮像領域内でも対象の光学画像を取得するよう構成される場合は、較正ステップにおいて較正要素が使用されてよく、該較正要素は、当該較正要素がCT撮像領域及び外側領域に配置される場合に、CT撮像領域においても光マーカを有する。この場合に、前記光学画像取得ユニットは、CT撮像領域内の前記較正要素の較正光学画像を更に取得するよう構成され、前記空間関係提供ユニットは、前記較正光学画像における前記光マーカの位置と、前記較正CT画像における前記CTマーカの位置とを検出し、該検出された位置に基づき前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を決定するよう構成される。前記較正要素は、例えば、前記光マーカ及び前記CTマーカを有する較正プレートである。そのような較正ステップは、前記コンピュータ断層撮影画像生成ユニット及び前記光学画像取得ユニットの互いに対する正確なレジストレーションを可能にし、それによって、前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の正確な空間関係を決定する。
前記コンピュータ断層撮影画像生成ユニットは、CT撮像領域内の対象の3次元CT画像、すなわち、ボリューム画像を生成するよう優先的に構成され、対象の外側表面上の位置から対象内の標的領域までの経路は、ボリューム画像に基づき提供される。前記画像統合ユニットは、次いで、3次元CT画像から、光学画像と統合される2次元CT画像を取り出すよう優先的に構成される。すなわち、前記画像統合ユニットは、全体的な生成された3次元CT画像を光学画像と統合せず、3次元CT画像の一部分、すなわち、取り出された2次元CT画像を光学画像と統合するよう優先的に構成される。取り出された2次元CT画像は、優先的に、提供された経路を完全に又は部分的に含む対象内の面に対応する。例えば、取り出された2次元CT画像は、対象内の標的領域での提供された経路の少なくとも一部分を含む面に対応する。
実施形態において、前記可動式支持要素に対して固定位置に光マーカが配置され、前記光学画像取得ユニットは、対象がCT撮像領域にあるときに前記光マーカの第1の距離測定光学画像を、及び対象が外側領域にあるときに前記光マーカの第2の距離測定光学画像を取得するよう構成され、当該コンピュータ断層撮影システムは、前記移動距離を決定する移動距離決定ユニットを更に有し、該移動距離決定ユニットは、前記第1の距離測定光学画像及び前記第2の距離測定光学画像において前記光マーカの位置を検出し、該検出された位置に基づき前記移動距離を決定するよう構成される。よって、この実施形態では、移動距離が前もって知られていること、又は移動距離が前記支持要素によって提供されることは、不要である。対象を伴った前記支持要素は、移動距離が前記支持要素に対して固定位置で配置される光マーカを用いることによって決定され得るので、前記支持要素が正確に移動距離を知る必要なしに、望むように動かされ得る。なお、他の実施形態では、移動距離は予め定義されてもよく、あるいは、前記支持要素によって提供されてよい。光マーカは、前記支持要素に、特に、対象が前記支持要素の上に配置されるときに該対象によって覆われる可能性が低い前記支持要素の端に、直接取り付けられ得る。
実施形態において、対象に光マーカが取り付けられ、前記光学画像取得ユニットは、異なる時点で、前記光マーカを示す動作測定光学画像を取得するよう構成され、当該コンピュータ断層撮影システムは、前記可動式支持要素に対する対象の動作を決定する対象動作決定ユニットを更に有し、該対象動作決定ユニットは、前記動作測定光学画像において前記光マーカの位置を検出し、該検出された位置に基づき前記対象の動作を決定するよう構成される。この実施形態では、前記画像統合ユニットは、CT画像、提供された経路、提供された空間関係、移動距離及び決定された対象の動作に基づき、統合画像を生成するよう構成されてよい。これは、光学画像に対して提供された経路を示す正確さを改善することができ、ひいては、外側領域からCT撮像領域内への及びその逆の前記支持要素の移動の更なる低減をもたらし、そして、適用される放射線量を更に低減することができる。
前記光学画像取得ユニットは、外側領域内の対象の実際の時間に依存したライブ光学画像を取得するよう優先的に構成され、前記画像統合ユニットは、CT画像及び実際の時間に依存したライブ光学画像が統合され、統合画像が提供された経路を示すように、CT画像、実際の時間に依存したライブ光学画像、提供された経路、提供された空間関係及び移動距離に基づき、統合画像を生成するよう構成される。実際の時間に依存したライブ光学画像は、例えば、提供された経路に従って入口位置に位置付けられるべきインターベンション器具を示すことができ、ユーザは、インターベンション器具の実際の位置及び向きが提供された経路に対応するかどうかを実時間で見ることができる。これは、ユーザが提供された経路に従ってインターベンション器具を正確に位置付けることをより一層容易にすることができ、ひいては、外側領域からCT撮像領域内への及びその逆の対象を伴った前記支持要素の必要とされる移動の回数を減らすことができ、そして、適用される放射線量を更に低減することができる。
本発明の更なる態様において、請求項1に記載のコンピュータ断層撮影システムと、前記経路提供ユニットによって提供される経路に沿って動かされるインターベンション器具とを有するインターベンションシステムであって、
前記可視光光学画像取得ユニットは、前記インターベンション器具が前記対象の上に置かれている間、前記外側領域における前記対象の前記光学画像を取得して、前記光学画像が前記インターベンション器具を示すように構成され、
前記画像統合ユニットは、前記CT画像及び前記光学画像が統合され且つ前記提供された経路及び前記インターベンション器具を更に示す統合画像を、前記CT画像、前記光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき生成するよう構成される、
インターベンションシステムが与えられる。
当該インターベンションシステムは優先的に、提供された経路に沿って人又は動物に導入される針又はカテーテルである。
本発明の更なる態様において、統合画像を生成する統合画像生成方法であって、
コンピュータ断層撮影画像生成ユニットによって、CT撮像領域内の対象のCT画像を生成するステップと、
経路提供ユニットによって、前記生成されたCT画像に基づき、前記対象の外側表面上の位置から前記対象内の標的領域までの経路を提供するステップと、
前記対象が前記CT撮像領域から該CT撮像領域外の外側領域へ移動距離にわたって動かされた後、光学画像取得ユニットによって、前記外側領域内の前記対象の可視光光学画像を取得するステップと、
空間関係提供ユニットによって、前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を提供するステップと、
画像統合ユニットによって、前記CT画像及び前記光学画像が統合され且つ前記提供された経路を更に示す統合画像を、前記CT画像、前記光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき生成するステップと
を有する統合画像生成方法が与えられる。
本発明の更なる態様において、請求項1に記載されるCTシステムを制御するコンピュータで実行される場合に、前記CTシステムに、請求項13記載される統合画像生成方法のステップを実行させるプログラムコード手段を有する統合画像生成コンピュータプログラムが与えられる。
請求項1のCTシステム、請求項12のインターベンションシステム、請求項13の統合画像生成方法、及び請求項14の統合画像生成コンピュータプログラムは、特に、従属請求項で定義されるように、同様の及び/又は同じ好適な実施形態を有することが理解されるべきである。
本発明の好適な実施形態はまた、夫々の独立請求項と従属請求項とのあらゆる組み合わせであることができる。
本発明のこれら及び他の態様は、以降で記載される実施形態から明らかであり、それらを参照して説明されるであろう。
対象がCT撮像領域内に配置される第1の状況において、CTシステム及びインターベンション器具を有するインターベンションシステムの実施形態の側面図を概略的に且つ見本となるように示す。 図1に示されるCTシステムの正面図を概略的に且つ見本となるように示す。 対象がCT撮像領域の外の外側領域に配置される状況において、図1に示されるインターベンションシステムの側面図を概略的に且つ見本となるように示す。 CTシステムによって生成される統合画像を示す。 CTシステムによって生成される統合画像を示す。 CTシステムを較正する較正要素の実施形態を概略的に且つ見本となるように示す。 統合画像を生成するための統合画像生成方法の実施形態を見本となるように表すフローチャートを示す。
図1及び2は、CTシステム1を有するインターベンションシステム30の実施形態を概略的に且つ見本となるように示す。図1は、インターベンションシステム30全体の側面図を示し、図2は、CTシステムのみの正面図を示す。
CTシステム1は、可動式支持要素9の上に横たわる対象5のCT画像を生成するコンピュータ断層撮影画像生成ユニット4を有する。この実施形態では、対象5は、患者31の胸部であり、可動式支持要素9は、両矢印32によって示される長手方向において動くことができる患者テーブルである。コンピュータ断層撮影画像生成ユニット4は、ボア13によって囲まれているCT撮像領域6内の胸部5のCT画像を生成するよう構成される。この実施形態では、コンピュータ断層撮影画像生成ユニット4は、対象の3次元CT画像を生成するよう構成される。
CTシステムは、CT撮像領域6の外、すなわち、ボア13の外の外側領域8内の胸部5の光学画像を取得する光学画像取得ユニット7を更に有する。支持要素9は、外側領域8からCT撮像領域6内へ及びCT撮像領域6から外側領域8内へ移動距離にわたって対象5を動かすよう構成される。図1では、対象5は、それが外側領域8から内部領域6へ動かされた後が示されており、一方、図1では、対象5は、それがCT撮像領域6から外側領域8へ動かされた後が示されている。なお、図3は、やはり、インターベンションシステム30の側面図である。
図1及び3は、インターベンション器具制御ユニット33へ接続されているカテーテル又は針のようなインターベンション器具26を更に示す。インターベンション器具制御ユニット33は、例えば、対象5内に適用されるエネルギを供給するよう、温度信号、撮像信号、等のようなインターベンション器具26からの検知信号を受信するよう、そして、それらの信号を処理して対象の内部の特性を決定するよう、等のように構成され得る。CTシステム1、インターベンション器具26及びインターベンション器具制御ユニット33を有する全体的なシステム30は、従って、インターベンションシステムであると見なされ得る。
CTシステム1は、生成されたCT画像に基づき対象5の外側表面上の入口位置から対象5内の標的領域までの経路を提供する経路提供ユニット10を有するプロセッシングユニット2を更に有する。プロセッシングユニット2は、コンピュータ断層撮影画像生成ユニット4の視野と光学画像取得ユニット7の視野との間の空間関係を提供する空間関係提供ユニット11と、CT画像及び光学画像が統合され且つ提供された経路を更に示す統合画像を、CT画像、光学画像、提供された経路、提供された空間関係及び移動距離に基づき生成する画像統合ユニット12とを更に有する。
光学画像取得ユニット7は、インターベンション器具26が対象5の上に設置され、任意に、既に対象5に挿入されている、図3に表された状況において、外側領域8内の対象5の実際の時間に依存したライブ光学画像を取得するよう優先的に構成される。実際の時間に依存したライブ光学画像は、従って、対象5のみならず、インターベンション器具26も示す。この状況において画像統合ユニット12が統合画像を生成する場合は、統合画像は、図1に表された状況において、すなわち、対象5がCT撮像領域6内に配置されたときに生成されたCT画像と、図3において表された状況において取得された実際の時間に依存したライブ光学画像との統合である。
特に、画像統合ユニット12は、コンピュータ断層撮影画像生成ユニット4によって生成された3次元CT画像から2次元CT画像を取り出すよう構成され、取り出された2次元CT画像は、提供された経路を完全に又は部分的に含む面に対応する。取り出された2次元CT画像は、患者の横断面、矢状面又は前頭面に対応することができ、夫々の面は、提供された経路の少なくとも一部分、例えば、標的領域での経路の一部分を含む。なお、取り出された2次元CT画像はまた、他の方法において方向を合わせられている、例えば、横断面、矢状面及び前頭面に対して斜めである、面に対応することができる。
統合画像では、また、対象5の外側表面上の所望の入口位置から対象5内の標的領域までの提供された経路は、例えば、グラフィカル表現によって示され、対象5の外のインターベンション器具26の実際の位置及び向きは、統合画像において示される。そのような統合画像は、図4において概略的に且つ見本となるように示されている。
図4から分かるように、統合画像40は、外側領域8における対象5の外側を示す光学画像と、対象5がCT撮像領域6に位置付けられたときに生成された3次元CT画像から取り出される取り出された2次元CT画像との統合である。統合画像40は、提供された経路43、すなわち、対応するグラフィカル表現43と、医師の手44によって保持されているインターベンション器具26の実際の位置及び向きとを更に示す。図5は、他の取得方向において光学画像取得ユニット7によって取得された光学画像及び対応する取り出された2次元CT画像が統合されている更なる統合画像41を概略的に且つ見本となるように示す。同じく、この統合画像は、提供された経路43、すなわち、対応するグラフィカル表現43と、インターベンション器具26の実際の位置及び向きとを更に示す。
光学画像取得ユニット7は、外側領域8の光学画像を取得する複数台のカメラを有する。加えて、光学画像取得ユニット7は、CT撮像領域6内の対象5の光学画像を取得するカメラを有する。特に、光学画像取得ユニット7は、コンピュータ断層撮影画像生成ユニット4の前部に配置されており、コンピュータ断層撮影画像生成ユニット4の前で外側領域8の光学画像を取得することができる3台のカメラ18,19,20と、コンピュータ断層撮影画像生成ユニット4のボア13の2つの対向する端部に配置されており、CT撮像領域6内の対象5の光学画像を取得することができる2対のカメラとを有する。第1の対のカメラは、ボア12の第1の端部に配置され、第2の対のカメラは、ボア13の対向する第2の端部に配置されている。図1及び3は、第1の対のカメラのうちの1台であるカメラ16と、第2の対のカメラの1台であるカメラ17とを示し、図2は、第2の対のカメラを構成するカメラ17,21を示す。図1においてCT撮像領域6内の対象5の光学画像を取得するカメラの視線と、図3において外側領域8における対象5の光学画像を取得するのに使用されるカメラの視線とは、破線によって示されている。
光マーカ14は、可動式支持要素8に対して固定位置に配置されており、光学画像取得ユニット7は、図1に示される例のように対象5がCT撮像領域6にあるときに、光マーカ14の第1の距離測定光学画像を、そして、図3に示される例のように対象5が外側領域8にあるときに、光マーカ14の第2の距離測定光学画像を取得するよう構成され、プロセッシングユニット2は、対象5がCT撮像領域6から外側領域8へ動かされた移動距離を決定する移動距離決定ユニット15を更に有する。移動距離決定ユニット15は、第1及び第2の距離測定光学画像において光マーカ14の位置を検出し、その検出された位置に基づき移動距離を決定するよう構成される。距離測定光学画像において光マーカの位置を検出するために、既知のセグメンテーションアルゴリズムが使用され得る。加えて、光学画像取得ユニット7のカメラは、光学画像内のどの位置及び/又は距離がどの実際の位置及び/又は実際の距離に対応するかが知られるように較正される。
カメラ及び更にコンピュータ断層撮影画像生成ユニット4は、較正要素を用いることによって較正ステップで較正されてよい。較正要素は、例えば、図6において概略的に且つ見本となるように示されている較正プレート22である。較正プレート22は、光学画像において検出可能な光マーカ23と、CT画像において検出可能なCTマーカ24とを有する。加えて、較正プレート22は、較正プレート22がCT撮像領域6から外側領域8までの領域に配置される場合にそれらの領域にわたって延在するような大きさにされる。加えて、光マーカ23及びCTマーカ24は、較正プレート22がCT撮像領域6において且つ外側領域8において配置される場合に、CTマーカ24がCT撮像領域6にあり且つ光マーカ23がCT撮像領域6及び外側領域8の両方にあるように、分布される。図6において、較正プレート22の上部分は、CT撮像領域6に配置されるべきであり、較正プレート22の下部分は、外側領域8に配置されるべきである。較正プレート22の異なるマーカ23,24の間の空間関係は知られている。
較正ステップにおいて、較正プレート22は、CT撮像領域6において且つ外側領域8において配置され、コンピュータ断層撮影画像生成ユニット4は、CT撮像領域6における較正プレート22の較正CT画像を生成する。加えて、光学画像取得ユニット7は、CT撮像領域6内及び外側領域8内の較正プレート22の較正光学画像を取得する。空間関係提供ユニット11は、次いで、較正光学画像における光マーカ23の位置と、較正CT画像におけるCTマーカ24の位置とを検出し、それらの検出された位置に基づきコンピュータ断層撮影画像生成ユニット4の視野と光学画像取得ユニット7の視野との間の空間関係を決定する。
対象5には光マーカ60が取り付けられ、光学画像取得ユニット7は、異なる時点で、光マーカ60を示す動作測定光学画像を取得するよう構成され、プロセッシングユニット2は、取得された動作測定光学画像に基づき可動式支持要素9に対する対象の動作を決定する対象動作決定ユニット25を更に有する。特に、対象動作決定ユニット25は、動作測定光学画像において光マーカ60の位置を検出し、その検出された位置に基づき対象の動作を決定するよう構成される。画像統合ユニット12は、決定された対象の動作に更に基づき、すなわち、図1に例示されるように対象5がCT撮像領域6において配置されたときに生成され、対象5内の経路を提供するために使用されたCT画像と、インターベンション器具26を更に示す実際の画像であり得る、外側領域8における対象5の光学画像と、提供された経路と、提供された空間関係と、動作距離と、決定された対象の動作とに基づき、統合画像を生成するよう優先的に構成される。
経路提供ユニット10は、ユーザが生成されたCT画像に対して経路を入力することを可能にするグラフィカルユーザインターフェースを提供し、その入力された経路を提供するよう構成される。グラフィカルユーザインターフェースは、キーボード、コンピュータマウス、等のような入力ユニット61と、ディスプレイ62を使用することができる。入力ユニット61及びディスプレイ62はまた、単一のユニットにおいて一体化され得る。例えば、グラフィカルユーザインターフェースは、ユーザがタッチスクリーンを用いることによって経路を入力することを可能にすることができる。更なる実施形態では、経路提供ユニット10はまた、CT画像において示される対象5の内部構造及び対象5の検出された内部構造に依存して経路を定義する経路定義規則を自動的に決定するよう構成され得る。
以下で、統合画像を生成するための統合画像生成方法の実施形態が、図7に示されるフローチャートを参照して見本となるように記載される。
図1において概略的に且つ見本となるように表されているように対象5がCT撮像領域6内に動かされた後、ステップ101で、コンピュータ断層撮影画像生成ユニット4は、CT撮像領域6内の対象5のCT画像を生成する。ステップ102で、経路提供ユニット10は、対象5の外側表面上の入口位置から対象5内の標的領域までの経路を、生成されたCT画像に基づき提供する。特に、経路提供ユニット10は、ユーザがCT画像において経路を描くことを可能にするグラフィカルユーザインターフェースを提供し、描かれた経路が経路提供ユニット10によって提供される。なお、経路提供ユニット10はまた、生成されたCT画像に基づき経路を自動的に又は半自動的に決定するよう構成されてよく、決定された経路が提供される。ステップ103で、コンピュータ断層撮影画像生成ユニット4の視野と光学画像取得ユニット7の視野との間の空間関係が空間関係提供ユニット11によって提供され、そして、図3において概略的に且つ見本となるように表されているように対象5が外側領域8内に動かされた後、ステップ104で、光学画像取得ユニット7は、CT撮像領域6の外の外側領域8内の対象5の光学画像を取得する。この光学画像は、インターベンション器具26をその実際の位置及び向きにおいて更に示す実画像であってよい。ステップ105で、画像統合ユニット12は、ステップ101で生成されたCT画像及びステップ104で生成された光学画像が統合されており且つ提供された経路を更に示す統合画像を、CT画像、光学画像、提供された経路、提供された空間関係及び移動距離に基づき生成する。ステップ106で、統合画像はディスプレイ62に示される。
ステップ104乃至106は、連続的に実際の光学画像が取得されて、更新された統合画像が生成され、ディスプレイ62で示されるように、優先的にループにおいて実行される。これは、医師が、位置及び向きが提供された経路に対応するようにインターベンション器具26を対象5の上に配置することを可能にし、一方、実時間において、医師は、統合画像を見ることによって、インターベンション器具26の実際の位置及び向きと提供された経路との間の一致を確認することができる。
ステップ101乃至106はまた、他の順序で実行され得る。例えば、ステップ103は、ステップ105より前であるあらゆる時間的位置で実行され得る。
この統合画像を用いることによって、侵襲の少ない針インターベンションのようなインターベンションプロシージャ、例えば、バイオプシー、ドレナージ、アブレーション、等は、インターベンション器具が、CT撮像領域内の対象からのx線投射を取得し、その取得されたx線投射に基づきCT画像を再構成するコンピュータ断層撮影画像生成ユニットを用いることに代えて、光学画像取得ユニットによりインターベンションプロシージャの比較的大部分について追跡され得るので、適用される放射線量が低減され且つ外側領域からCT撮像領域内への及びその逆の対象5の移動がより少なく実行され得る。
光学画像取得ユニットは、コンピュータ断層撮影画像生成ユニットに堅固に取り付けられた、すなわち、CTスキャナに堅固に取り付けられた複数の光学式カメラを有する。それらの光学式カメラの位置及び向きは、ボア及びボアの前の空間の両方がそれらの光学式カメラの視野によってカバーされるようなものであってよい。図1乃至3を参照して上述された実施形態では、4台の光学式カメラがボア内の空間をカバーし、3台のカメラがボアの前の空間をカバーする。すなわち、4台のカメラがCT撮像領域をカバーし、3台のカメラが外側領域をカバーする。
光学画像取得ユニットの全ての光学式カメラの光学ビューの、すなわち、視野の、位置及び向きは、CT画像の、すなわち、CT視野の、位置及び向きにより優先的に較正される。この較正は、ボア内の表面及びボアの前の表面の両方をカバーすることができるほど十分に大きく且つ光学基準、すなわち、光学画像において可視的な光マーカと、x線基準、すなわち、CT画像において可視的なCTマーカとを含む較正プレートを用いることによって、優先的に実行される。光学基準に対するx線基準の既知の相対位置に基づき、CT画像に対する光学ビューの位置及び向きが計算され得る。
支持要素の位置は変更されるので、対象を、特に、針の挿入のために、ボアの外に、そして、CT撮像のために反対に動かすときに、支持要素の位置は、支持要素の全ての位置について光学画像において正確な提供された経路、特に、正確な提供された針経路を示すために、正確に知られる必要がある。支持要素の夫々の位置は、支持要素がその夫々の位置を正確に配信するよう相応に構成される場合は、支持要素によって提供され得る。なお、支持要素の夫々の位置はまた、他の方法で提供され得る。例えば、再現可能な患者支持体移動システムは、更なる光学式較正により開発され得る。この光学式較正では、支持要素が動かされている間、カメラシステムに対する実際の支持要素の位置は、支持体上に位置しているマーカプレートを用いて光学式カメラとレジストレーションされる。
図1乃至3を参照して上述された、特に、較正された光学式カメラ及び較正された支持要素を有するCTシステムを用いることによって、CT誘導型バイオプシーのようなインターベンションプロシージャは相当に簡単化され得る。例えば、CTシステムは、CT誘導型バイオプシーのために次のワークフローを可能にしてよい。
最初に、対象5は、縦型の支持要素を用いることによって、CT内、すなわち、コンピュータ断層撮影画像生成ユニット内に動かされる。次いで、CT撮像領域における対象のCT画像が生成され、その後に、対象は、CTガントリからCTガントリの前の外側領域内に動かされる。対象の外側、例えば、患者の皮膚の上にある入口点から、対象内の標的領域、特に、標的点までの経路が提供される。例えば、医師は、経路提供ユニットのグラフィカルユーザインターフェースを用いることによって、対応する針経路を、生成されたCT画像に基づき計画する。計画された針経路は、次いで、ボアの前の空間を撮像する、すなわち、外側領域を撮像する光学式カメラによって取得された光学画像において、視覚化される。対象はCTガントリの外に動かされているので、対象上の入口点はそれらの光学式カメラの視野にある。計画された針経路はそれらの光学画像において視覚化されるので、医師は、正しい方向において針を位置付け、重要な生体構造に当たらないように針を数センチだけ挿入することができる。重要な生体構造に当たらず且つ針が標的領域に近くないことを医師が確信する限り、医師は針を挿入し続けてよい。挿入された針が標的領域の、又は重要な生体構造に近い場所の近くにあると予期する場合は、対象は、低線量CT画像を生成し且つ計画された針経路に対して実際の現実の針の位置及び向きを確認するために、再びCTガントリ内に動かされてよく、その後に、対象は、再び、CTガントリからCTガントリの前の外側領域内に動かされ得る。計画された針経路に対する針の位置及び向きの確認により、針の実際の位置及び向きが正しいことが分かると、医師は針を患者内に進め続けることができる。そうでない場合は、医師は、針の位置及び/又は向きを修正してから針を進めることができる。少数の中間にあるCT確認ステップを伴う統合画像誘導下での針の前進は、針が標的領域に達するまで実行され得る。多数の前進並びに更に入口位置での針の位置決め及びこの入口位置での針の方向付けは、統合画像誘導下で実行されるので、CT画像の総数、ひいては、全体のプロセスに必要とされる総時間及び適用される放射線量は低減され得る。
CTシステムは、対象の動きを追跡するよう、特に、患者の動きを追跡するよう優先的に構成される。このために、多数の光マーカが対象の外側表面に、特に、患者の皮膚に取り付けられ得る。光学画像取得ユニット及び光マーカ、すなわち、図1及び3を参照して上述された光マーカ60は、4つの光マーカが、対象の動きを追跡するために、同時に2台のカメラによって検出され得るように、優先的に構成される。4つの個別的なマーカ位置は、三角測量によって決定され得、対象の動き、位置及び向きは、4つの実際のマーカ位置を用いることによって決定され得る。
図1及び3を参照して上述された実施形態では、インターベンションシステムは、インターベンション器具及びインターベンション器具制御ユニットを有するが、他の実施形態では、インターベンションシステムは、手に持つことができる針のような手持ち式のインターベンション器具のみを有してよく、すなわち、インターベンション器具制御ユニットを有さない。
図1乃至3を参照して上述された光学画像取得ユニットは、CT撮像領域内の対象の光学画像と、CT撮像領域の外の外側領域内の対象の光学画像とを取得するよう構成されるが、光学画像取得ユニットはまた、外側領域内の対象の光学画像のみを取得するよう構成され得る。すなわち、CT撮像領域内の対象の光学画像を取得する能力は任意である。例えば、光学画像取得ユニットは、CTシステムのボアの外の対象を撮像するためのカメラのみを有せばよく、ボア内の領域を撮像するためのカメラを有さなくてよい。
上記の実施形態では、インターベンションシステムは、CT誘導型バイオプシーを実行するよう構成される、他の実施形態では、インターベンションシステムは、他のインターベンションプロシージャを実行するよう構成され得る。例えば、それは、CT画像を用いて針又は他のインターベンション器具を正確に誘導する必要性がある、CTシステムを用いた他の低侵襲経皮プロシージャを実行するよう構成され得る。
上記の実施形態では、対象は胸部であるが、他の実施形態では、生物の他の部分であることもできる。
開示されている実施形態に対する他の変形は、図面、本開示、及び添付の特許請求の範囲の検討から、請求される発明を実施することにおいて当業者によって理解され成し遂げられ得る。
特許請求の範囲において、語「有する(comprising)」は他の要素又はステップを除外せず、不定冠詞(a又はan)は複数個を除外しない。
単一のユニット及びデバイスは、特許請求の範囲で挙げられている複数の項目の機能を満たしてよい。特定の手段が相互に異なる従属請求項で挙げられているという単なる事実は、それらの手段の組み合わせが有利に使用され得ないことを示さない。
1又は複数のユニット又はデバイスによって実行される経路の、特に、計画された針経路の提供、統合画像の生成、支持要素に対する対象の動きの決定、等のようなプロシージャは、あらゆる他の数のユニット又はデバイスによって実行され得る。それらのプロシージャ及び/又は統合画像生成方法に従うCTシステムの制御は、コンピュータプログラムのプログラムコードとして及び/又は専用のハードウェアとして実施され得る。
コンピュータプログラムは、他のハードウェアとともに又はその部分として供給される、光記憶媒体又はソリッドステート媒体のような適切な場合において記憶/分配されてよいが、他の形態においても、例えば、インターネット又は他の有線若しくは無線電気通信システムを介して、分配されてよい。
特許請求の範囲における如何なる参照符号も、適用範囲を制限するよう解釈されるべきではない。
本発明は、CT撮像領域内、特に、CTシステムのボア内の対象のCT画像と、対象がCT撮像領域から動かされた後、特に、対象がボアの前に位置付けられるときに、生成された対象の光学画像との統合である統合画像を生成する画像統合ユニットを有するCTシステムに係る。統合画像は、インターベンション器具が対象内で動かされるべきである、CT画像に基づき提供された経路を更に示す。統合画像を見ることによって、ユーザは、位置確認のために多くの付加的なCT画像を取得する必要なしに、経路に沿って正確に器具を動かすことができる。これは、インターベンションプロシージャのために必要とされる放射線量及び時間を低減することができる。

Claims (14)

  1. コンピュータ断層撮影撮像領域内の対象のコンピュータ断層撮影画像を生成するコンピュータ断層撮影画像生成ユニットと、
    前記コンピュータ断層撮影撮像領域外の外側領域内の前記対象の光学画像を取得する可視光光学画像取得ユニットと、
    前記対象を支持し、該支持された対象を前記外側領域から前記コンピュータ断層撮影撮像領域内へ及び前記コンピュータ断層撮影撮像領域から前記外側領域内へ移動距離にわたって動かす可動式支持要素と、
    前記生成されたコンピュータ断層撮影画像に基づき、前記対象の外側表面上の位置から前記対象内の標的領域までの経路を提供する経路提供ユニットと、
    前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を提供する空間関係提供ユニットと、
    前記コンピュータ断層撮影画像及び前記光学画像が統合され且つ前記提供される経路を更に示す統合画像を、前記コンピュータ断層撮影画像、前記光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき生成する画像統合ユニットと
    を有するコンピュータ断層撮影システム。
  2. 前記光学画像取得ユニットは更に、前記コンピュータ断層撮影撮像領域内の前記対象の光学画像を取得するよう構成される、
    請求項1に記載のコンピュータ断層撮影システム。
  3. 前記可動式支持要素に対して固定位置に光マーカが配置され、
    前記光学画像取得ユニットは、前記対象が前記コンピュータ断層撮影撮像領域にあるときに前記光マーカの第1の距離測定光学画像を、及び前記対象が前記外側領域にあるときに前記光マーカの第2の距離測定光学画像を取得するよう構成され、
    当該コンピュータ断層撮影システムは、前記移動距離を決定する移動距離決定ユニットを更に有し、
    前記移動距離決定ユニットは、前記第1の距離測定光学画像及び前記第2の距離測定光学画像において前記光マーカの位置を検出し、該検出された位置に基づき前記移動距離を決定するよう構成される、
    請求項2に記載のコンピュータ断層撮影システム。
  4. 較正ステップにおいて、光学画像において検出可能な光マーカと、コンピュータ断層撮影画像において検出可能なコンピュータ断層撮影マーカとを有する較正要素が使用され、
    使用において、前記較正要素は、前記コンピュータ断層撮影撮像領域から前記外側領域へ延在し、
    前記較正要素が前記コンピュータ断層撮影撮像領域及び前記外側領域において配置される場合は、コンピュータ断層撮影マーカは前記コンピュータ断層撮影撮像領域にあり、光マーカは前記外側領域にあり、
    前記光マーカ及び前記コンピュータ断層撮影マーカとの間のマーカ空間関係は知られており、
    前記コンピュータ断層撮影画像生成ユニットは、前記コンピュータ断層撮影撮像領域における前記較正要素の較正コンピュータ断層撮影画像を生成するよう構成され、
    前記光学画像取得ユニットは、前記外側領域内の前記較正要素の較正光学画像を取得するよう構成され、
    前記空間関係提供ユニットは、前記較正光学画像における前記光マーカの位置と、前記較正コンピュータ断層撮影画像における前記コンピュータ断層撮影マーカの位置とを検出し、該検出された位置に基づき前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を決定するよう構成される、
    請求項1に記載のコンピュータ断層撮影システム。
  5. 前記光学画像取得ユニットは更に、前記コンピュータ断層撮影撮像領域内の前記対象の光学画像を取得するよう構成され、
    前記較正要素が前記コンピュータ断層撮影撮像領域及び前記外側領域において配置される場合は、コンピュータ断層撮影撮像領域には更に光マーカがあり、
    前記光学画像取得ユニットは、前記コンピュータ断層撮影撮像領域内の前記較正要素の較正光学画像を更に取得するよう構成され、
    前記空間関係提供ユニットは、前記較正光学画像における前記光マーカの位置と、前記較正コンピュータ断層撮影画像における前記コンピュータ断層撮影マーカの位置とを検出し、該検出された位置に基づき前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を決定するよう構成される、
    請求項4に記載のコンピュータ断層撮影システム。
  6. 前記対象に光マーカが取り付けられ、
    前記光学画像取得ユニットは、異なる時点で、前記光マーカを示す動作測定光学画像を取得するよう構成され、
    当該コンピュータ断層撮影システムは、前記可動式支持要素に対する対象の動作を決定する対象動作決定ユニットを更に有し、
    前記対象動作決定ユニットは、前記動作測定光学画像において前記光マーカの位置を検出し、該検出された位置に基づき前記対象の動作を決定するよう構成される、
    請求項1に記載のコンピュータ断層撮影システム。
  7. 前記画像統合ユニットは、前記コンピュータ断層撮影画像、前記光学画像、前記提供された経路、前記提供された空間関係、前記移動距離及び前記決定された対象の動作に基づき前記統合画像を生成するよう構成される、
    請求項6に記載のコンピュータ断層撮影システム。
  8. 前記光学画像取得ユニットは、前記外側領域内の前記対象の実際の時間に依存したライブ光学画像を取得するよう構成され、
    前記画像統合ユニットは、前記コンピュータ断層撮影画像及び前記実際の時間に依存したライブ光学画像が統合され、前記統合画像が前記提供された経路を示すように、前記コンピュータ断層撮影画像、前記実際の時間に依存したライブ光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき前記統合画像を生成するよう構成される、
    請求項1に記載のコンピュータ断層撮影システム。
  9. 前記光学画像取得ユニットは、前記コンピュータ断層撮影画像生成ユニットに取り付けられたカメラを有する、
    請求項1に記載のコンピュータ断層撮影システム。
  10. 前記経路提供ユニットは、ユーザが前記コンピュータ断層撮影画像に対して前記経路を入力することを可能にするユーザインターフェースを提供し、前記入力された経路を提供するよう構成される、
    請求項1に記載のコンピュータ断層撮影システム。
  11. 前記コンピュータ断層撮影画像生成ユニットは、前記コンピュータ断層撮影撮像領域を囲むボアを有し、
    前記外側領域は、前記ボアの外にある、
    請求項1に記載のコンピュータ断層撮影システム。
  12. 請求項1に記載のコンピュータ断層撮影システムと、前記経路提供ユニットによって提供される経路に沿って動かされるインターベンション器具とを有するインターベンションシステムであって、
    前記可視光光学画像取得ユニットは、前記インターベンション器具が前記対象の上に置かれている間、前記外側領域における前記対象の前記光学画像を取得して、前記光学画像が前記インターベンション器具を示すように構成され、
    前記画像統合ユニットは、前記コンピュータ断層撮影画像及び前記光学画像が統合され且つ前記提供された経路及び前記インターベンション器具を更に示す統合画像を、前記コンピュータ断層撮影画像、前記光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき生成するよう構成される、
    インターベンションシステム。
  13. 統合画像を生成する統合画像生成方法であって、
    コンピュータ断層撮影画像生成ユニットによって、コンピュータ断層撮影撮像領域内の対象のコンピュータ断層撮影画像を生成するステップと、
    経路提供ユニットによって、前記生成されたコンピュータ断層撮影画像に基づき、前記対象の外側表面上の位置から前記対象内の標的領域までの経路を提供するステップと、
    前記対象が前記コンピュータ断層撮影撮像領域から該コンピュータ断層撮影撮像領域外の外側領域へ移動距離にわたって動かされた後、光学画像取得ユニットによって、前記外側領域内の前記対象の可視光光学画像を取得するステップと、
    空間関係提供ユニットによって、前記コンピュータ断層撮影画像生成ユニットの視野と前記光学画像取得ユニットの視野との間の空間関係を提供するステップと、
    画像統合ユニットによって、前記コンピュータ断層撮影画像及び前記光学画像が統合され且つ前記提供された経路を更に示す統合画像を、前記コンピュータ断層撮影画像、前記光学画像、前記提供された経路、前記提供された空間関係及び前記移動距離に基づき生成するステップと
    を有する統合画像生成方法。
  14. 請求項1に記載されるコンピュータ断層撮影システムを制御するコンピュータで実行される場合に、前記コンピュータ断層撮影システムに、請求項13記載される統合画像生成方法のステップを実行させるプログラムコード手段を有する統合画像生成コンピュータプログラム。
JP2015527946A 2013-06-28 2014-06-13 コンピュータ断層撮影システム、インターベンションシステム、コンピュータ断層撮影システムの作動方法、及びコンピュータプログラム Active JP5883998B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13174201.7 2013-06-28
EP13174201 2013-06-28
PCT/EP2014/062299 WO2014206760A1 (en) 2013-06-28 2014-06-13 Computed tomography system

Publications (2)

Publication Number Publication Date
JP2015526184A true JP2015526184A (ja) 2015-09-10
JP5883998B2 JP5883998B2 (ja) 2016-03-15

Family

ID=48699628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015527946A Active JP5883998B2 (ja) 2013-06-28 2014-06-13 コンピュータ断層撮影システム、インターベンションシステム、コンピュータ断層撮影システムの作動方法、及びコンピュータプログラム

Country Status (7)

Country Link
US (2) US20160249984A1 (ja)
EP (1) EP2861149B1 (ja)
JP (1) JP5883998B2 (ja)
CN (1) CN104812307B (ja)
BR (1) BR112015002016A2 (ja)
RU (1) RU2015103232A (ja)
WO (1) WO2014206760A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017086819A (ja) * 2015-11-17 2017-05-25 東芝メディカルシステムズ株式会社 医用画像診断装置

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2023812T3 (pl) 2006-05-19 2017-07-31 The Queen's Medical Center Układ śledzenia ruchu dla adaptacyjnego obrazowania w czasie rzeczywistym i spektroskopii
WO2013032933A2 (en) 2011-08-26 2013-03-07 Kinecticor, Inc. Methods, systems, and devices for intra-scan motion correction
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN105392423B (zh) 2013-02-01 2018-08-17 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
EP3157422A4 (en) 2014-03-24 2018-01-24 The University of Hawaii Systems, methods, and devices for removing prospective motion correction from medical imaging scans
US9734589B2 (en) * 2014-07-23 2017-08-15 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
GB201501157D0 (en) * 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
EP3150124B1 (en) * 2015-09-29 2020-03-25 Technische Universität München Apparatus and method for augmented visualization employing x-ray and optical data
US10716515B2 (en) 2015-11-23 2020-07-21 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US11209954B2 (en) * 2015-12-10 2021-12-28 Cmr Surgical Limited Surgical robotic system using dynamically generated icons to represent orientations of instruments
JP6714097B2 (ja) * 2016-03-16 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. マルチモーダルx線撮像における光学カメラ選択
WO2018076109A1 (en) * 2016-10-24 2018-05-03 Torus Biomedical Solutions Inc. Systems and methods for producing real-time calibrated stereo long radiographic views of a patient on a surgical table
US11341868B2 (en) 2017-04-18 2022-05-24 Teleflex Medical Incorporated Vascular access training simulator system and transparent anatomical model
DE102018104714A1 (de) 2018-03-01 2019-09-05 Karl Storz Se & Co. Kg Telemanipulatorsystem und Verfahren zum Betreiben eines Telemanipulatorsystems
EP3557531A1 (en) 2018-04-18 2019-10-23 Vision RT Limited Camera monitoring system for monitoring a patient in a bore based medical system
CN112912005A (zh) * 2018-10-24 2021-06-04 西门子医疗有限公司 生成医学结果图像
EP3721798A1 (en) * 2019-04-11 2020-10-14 Koninklijke Philips N.V. Combined optical image generator and optical imaging system
EP3821943B1 (en) * 2019-11-12 2024-03-27 Vision RT Limited Bore based medical system comprising a camera carrier configured to be mounted in the bore-based medical systems and utilized for positioning and monitoring of patients during radiotherapy treatment
US11317973B2 (en) * 2020-06-09 2022-05-03 Globus Medical, Inc. Camera tracking bar for computer assisted navigation during surgery
EP4193953A4 (en) * 2020-09-02 2024-01-17 Shanghai United Imaging Healthcare Co Ltd PATH PLANNING METHOD, AND METHOD, APPARATUS AND SYSTEM FOR DETERMINING OPERATION GUIDANCE INFORMATION
CN112515695B (zh) * 2020-12-02 2024-05-10 上海西门子医疗器械有限公司 Ct机系统及其状态监测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268793A (ja) * 2008-05-09 2009-11-19 Toshiba Corp X線ct装置及びx線ct装置における被検体の位置決め方法
JP2013511355A (ja) * 2009-11-19 2013-04-04 ザ・ジョンズ・ホプキンス・ユニバーシティー 局所センサの協調セットを使用した低コストの画像誘導ナビゲーション/介入システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6405072B1 (en) * 1991-01-28 2002-06-11 Sherwood Services Ag Apparatus and method for determining a location of an anatomical target with reference to a medical apparatus
DE19703556A1 (de) * 1997-01-31 1998-08-06 Philips Patentverwaltung Verfahren und Anordnung zur Positionsbestimmung bei der Röntgenbildgebung
US20030008356A1 (en) * 1998-08-07 2003-01-09 Ono Pharmaceutical Co., Ltd. Novel polypeptide, a cDNA encoding the same, and use of it
DE19842239A1 (de) * 1998-09-15 2000-03-16 Siemens Ag Medizintechnische Einrichtung
JP3497448B2 (ja) * 2000-06-09 2004-02-16 Necトーキン株式会社 電気二重層コンデンサおよび電池
US20030083562A1 (en) * 2001-11-01 2003-05-01 Ali Bani-Hashemi Patient positioning system employing surface photogrammetry
US9681925B2 (en) * 2004-04-21 2017-06-20 Siemens Medical Solutions Usa, Inc. Method for augmented reality instrument placement using an image based navigation system
GB2418495B (en) * 2004-09-24 2010-04-28 Vision Rt Ltd Image processing system for use with a patient positioning device
CN106943153B (zh) * 2008-12-11 2021-01-22 皇家飞利浦电子股份有限公司 用于产生患者内部和外部图像的系统和方法
TWI438868B (zh) * 2010-07-30 2014-05-21 Au Optronics Corp 互補金氧半電晶體及其製作方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009268793A (ja) * 2008-05-09 2009-11-19 Toshiba Corp X線ct装置及びx線ct装置における被検体の位置決め方法
JP2013511355A (ja) * 2009-11-19 2013-04-04 ザ・ジョンズ・ホプキンス・ユニバーシティー 局所センサの協調セットを使用した低コストの画像誘導ナビゲーション/介入システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017086819A (ja) * 2015-11-17 2017-05-25 東芝メディカルシステムズ株式会社 医用画像診断装置

Also Published As

Publication number Publication date
EP2861149A1 (en) 2015-04-22
RU2015103232A (ru) 2017-08-03
BR112015002016A2 (pt) 2017-07-04
WO2014206760A1 (en) 2014-12-31
JP5883998B2 (ja) 2016-03-15
CN104812307A (zh) 2015-07-29
CN104812307B (zh) 2017-10-24
US20200375663A1 (en) 2020-12-03
US20160249984A1 (en) 2016-09-01
EP2861149B1 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP5883998B2 (ja) コンピュータ断層撮影システム、インターベンションシステム、コンピュータ断層撮影システムの作動方法、及びコンピュータプログラム
CN104039260B (zh) 位置确定装置
US11116582B2 (en) Apparatus for determining a motion relation
EP4275615A2 (en) Tissue imaging system
CN105491952B (zh) 探头定位
US20100063387A1 (en) Pointing device for medical imaging
KR20160076487A (ko) 영상 시스템 및 영상 진단 장치 내에 환자를 포지셔닝하는 방법
JP6740316B2 (ja) X線透視装置の放射線フリー位置較正
US10786309B2 (en) Radiation-free registration of an optical shape sensing system to an imaging system
EP3494548B1 (en) System and method of generating and updating a three dimensional model of a luminal network
KR20170124962A (ko) 혈관 중재 시술을 위한 내비게이션 시스템 및 가상의 엑스선 이미지 생성 방법
US10888381B2 (en) Registration apparatus for interventional procedure
CN113164206A (zh) 用于成像装置的空间配准方法
KR102042762B1 (ko) 영상정합방법 및 영상정합장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150224

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160208

R150 Certificate of patent or registration of utility model

Ref document number: 5883998

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250