JP2016525000A - イメージング装置を追跡装置と位置合わせする位置合わせシステム - Google Patents

イメージング装置を追跡装置と位置合わせする位置合わせシステム Download PDF

Info

Publication number
JP2016525000A
JP2016525000A JP2016528387A JP2016528387A JP2016525000A JP 2016525000 A JP2016525000 A JP 2016525000A JP 2016528387 A JP2016528387 A JP 2016528387A JP 2016528387 A JP2016528387 A JP 2016528387A JP 2016525000 A JP2016525000 A JP 2016525000A
Authority
JP
Japan
Prior art keywords
image
alignment
location
imaging
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016528387A
Other languages
English (en)
Other versions
JP6511050B2 (ja
JP2016525000A5 (ja
Inventor
アーメット エイキン
アーメット エイキン
ローラント フェラルト
ローラント フェラルト
ベルゼン フェムケ ファン
ベルゼン フェムケ ファン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016525000A publication Critical patent/JP2016525000A/ja
Publication of JP2016525000A5 publication Critical patent/JP2016525000A5/ja
Application granted granted Critical
Publication of JP6511050B2 publication Critical patent/JP6511050B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20096Interactive definition of curve of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、X線Cアーム装置のようなイメージング装置2を、光学形状センシング追跡装置のような追跡装置4と位置合わせする位置合わせシステム13に関する。対象検出ユニット5は、a)ユーザが、対象上の任意の位置を示すための対象の画像マーカを加えることを可能にし、b)加えられたマーカに基づいて対象の表現を提供する、ように適応され、位置合わせユニット6は、追跡装置によって追跡される対象のロケーションと、表現のロケーションとに基づいて、位置合わせパラメータを決定する。この種の位置合わせは、ユーザにとって可視である画像内の任意の対象に関して実施されることができ、それによって、位置合わせのために様々な対象を使用できるようにする。

Description

本発明は、イメージング装置を追跡装置と位置合わせするための位置合わせシステム、位置合わせ方法及び位置合わせコンピュータプログラムに関する。本発明は、更に、対象をイメージングするためのイメージングシステム、イメージング方法及びイメージングコンピュータプログラムに関する。本発明は更に、イメージングシステムを有する介入システムに関する。
国際公開第2013/001388A1号公報は、身体ルーメンのライブの3次元画像を提供するシステムを開示している。システムは、身体ルーメンのX線画像を生成するX線システム、及び身体ルーメン内の可撓性の外科ツールの3次元形状を決定する光学的形状センシング装置(optical shape sensing、OSS)を有する。可撓性の外科ツールの決定された3次元形状及び身体ルーメンのX線画像は、特にX線画像の外科ツールのセグメント化に基づいて、互いに位置合わせされる。
米国特許出願公開第2010/0056904A1号公報は、挿入部位から患者内の処置部位までナビゲートされる、カテーテルのような介入器具を有する介入システムを開示している。ナビゲーションプロシージャの間、光学ファイバ部材を備える介入器具は、OSSを使用することによって追跡され、追跡されたロケーションは、患者の磁気共鳴画像内に表示される。OSSによって追跡される介入器具のロケーションを、患者の磁気共鳴画像上に表示するために、介入器具を追跡するOSS追跡システムと磁気共鳴画像を生成する磁気共鳴イメージングシステムとが、互いに位置合わせされる必要がある。位置合わせは、磁気共鳴画像内に、介入器具の光学ファイバ部材上の複数の既知のポイントをマーキングすることによって実施され、ここで既知のポイントは、磁気共鳴画像内において可視であるマーカを保持する。
この介入プロシージャは、マーカを有する光学ファイバ部材を具備する特定の介入器具によってのみ実施されることができ、かかるマーカは、磁気共鳴画像において可視である。従って、介入プロシージャは、特定の介入器具にのみ制限される。
本発明の目的は、対象の画像を生成するイメージング装置を、対象のロケーションを追跡する追跡装置と位置合わせするための位置合わせシステム、位置合わせ方法、及び位置合わせコンピュータプログラムを提供することであり、それらにおいて、特定の対象に対する制限が低減される。更に、本発明の目的は、位置合わせシステムから得られる位置合わせ結果を使用する、対象をイメージングするためのイメージングシステム、イメージング方法、及びイメージングコンピュータプログラムを提供することである。本発明の他の目的は、イメージングシステムを有する介入システムを提供することである。
本発明の第1の見地において、対象の画像を生成するイメージング装置を、対象の位置及び形状を決定することによりイメージング装置の視野内の対象のロケーションを追跡する追跡装置と位置合わせするように適応される位置合わせシステムであって、画像内の対象を検出する対象検出ユニットであって、a)対象が位置する画像内の任意の位置を示すために、ユーザがマーカを画像に加えることを可能にし、b)加えられたマーカに基づいて、画像内に対象の表現を提供する、ように適応される対象検出ユニットと、イメージング装置と追跡装置との位置合わせを規定する位置合わせパラメータを決定する位置合わせユニットであって、イメージング装置の視野内の対象の追跡されたロケーション及び画像内の対象の表現のロケーションに基づいて、位置合わせパラメータを決定するように適応される位置合わせユニットと、を有する位置合わせシステムが提示される。
対象検出ユニットは、ユーザが、対象が位置する画像内の任意の位置を示すために、画像にマーカを加えることを可能にするように適応され、任意の位置におけるこれらのマーカは、画像内に対象の表現を提供するために使用され、位置合わせはその位置に基づいて行われるので、対象は、マーキングされる必要のある複数の既知の位置にマーカを保持する光学ファイバ部材を有する必要がない。ユーザは、ただ任意の位置においてマーカを画像に加えるだけでよく、これらの任意の位置は、例えば、対象に対して知られたものである必要はなく、同様に、対象は、既知の位置にマーカを有する必要がない。位置合わせは、ユーザにとって画像内で可視である任意の対象を用いて実施されることができ、それによって、位置合わせのために使用されることができる特定の対象への制限を低減することができる。
対象は、好適には、例えばカテーテル、ニードル、ガイドワイヤ等の介入器具のようなデバイスである。
一実施形態において、イメージング装置は、視野の2次元投影画像を生成するように適応され、対象検出ユニットは、a)2次元投影画像内の対象を示すために、ユーザがマーカを2次元投影画像に加えることを可能にし、b)加えられたマーカに基づいて、2次元投影画像内に対象の表現を提供するように適応され、位置合わせユニットは、イメージング装置の視野内の対象の追跡されたロケーション及び2次元投影画像内の対象の表現のロケーションに基づいて、位置合わせパラメータを決定するように適応される。特に、イメージング装置は、それぞれ異なる投影方向に対応する少なくとも2つの2次元投影画像を生成するように適応され、対象検出ユニットは、a)ユーザが、それぞれ異なる2次元投影画像内に対象を示すために、2次元投影画像の各々にマーカを加えることを可能にし、b)加えられたマーカに基づいて、2次元投影画像内に対象の表現を提供する、ように適応され、位置合わせユニットは、イメージング領域の対象の追跡されたロケーション及び2次元投影画像における対象の表現のロケーションに基づいて、位置合わせパラメータを決定するように適応される。イメージング装置は、好適には、1又は複数の2次元X線投影画像を生成するように適応される。位置合わせパラメータが決定されたのち、個々の2次元投影画像が、実際の画像ではなく、もっと古いものであっても、対象の実際のロケーションが、個々の2次元投影画像に表示されることができる。従って、例えば、介入プロシージャの最中、対象が移動される間、実際の2次元投影画像が提供されることを要求することなく、この例では介入器具である対象のロケーションが、それぞれ異なる2次元投影画像に表示されることができる。
追跡装置は、好適には、対象の3次元ロケーションを追跡するように適応され、位置合わせユニットは、2次元投影画像を生成するイメージング装置によって使用される投影ジオメトリを考慮して対象の追跡された3次元ロケーションの2次元投影を計算し、及び追跡装置によって規定される座標系とイメージング装置によって規定される座標系の間の空間変換を計算することによって、位置合わせパラメータを決定するように適応され、空間変換は、対象の追跡された3次元ロケーションの計算された2次元投影と、2次元投影画像内における対象の表現のロケーションとの間の偏差を最小にする。追跡されるロケーションは3次元であり、画像は2次元であるが、これは、位置合わせパラメータを比較的正確に決定することを可能にする。
追跡装置は、OSSによって対象のロケーションを追跡するように適応され、位置合わせユニットは、OSSによって追跡されるイメージング装置の視野内の対象のロケーション及び画像内における対象の表現のロケーションに基づいて、位置合わせパラメータを決定するように適応されることが好ましい。OSSは、非常に正確に且つユーザによって容易に扱われることができるやり方で、対象のロケーションを追跡することを可能にする。例えば、対象のロケーションを追跡するために、電磁界のような付加の場を提供する必要はない。
対象検出ユニットは、画像内における対象の表現として、加えられたマーカを提供するように適応されることができる。しかしながら、対象検出ユニットは更に、加えられたマーカに基づいて、表現を決定し、特に計算するように適応されることができる。例えば、対象が長めの対象である場合、対象検出ユニットは、加えられたマーカをラインによって接続することによって、画像内における対象の表現を決定するように適応されることができる。従って、対象は、加えられたマーカを接続する複数のラインセグメントによって表現されることができる。しかしながら、対象検出ユニットは、加えられたマーカに曲線をフィットさせることによって、画像内における対象の表現を決定するようにも適応されることができる。更に、対象検出ユニットは、加えられたマーカ及び画像の画像値に基づいて、画像内に対象の表現を提供するように適応されることができる。更に、画像内における対象の表現を提供する間に画像値を考慮することは、画像内における対象の位置及び形状により良くフィットする表現を与えることができ、それにより位置合わせの正確さを改善する。
例えば、対象検出ユニットは、画像の画像値に基づいて、画像内の対象のロケーションを示すロケーション情報を決定し、加えられたマーカ及びロケーション情報に基づいて、画像内に対象の表現を提供するように適応されることができる。特に、対象検出ユニットは、画像内における対象のロケーションを示す、すなわち例えば画像内における長めの対象の空間的な走行を示すロケーション情報を生成するために、対象検出アルゴリズムを画像に適用するように適応されることができる。例えば、セグメント化アルゴリズムが、画像内の対象をセグメント化するために画像に適用されることができ、その場合、セグメント化される対象は、この例ではロケーション情報である。対象が位置する画像内の任意の位置を示す手動で加えられるマーカは、自動的に決定されるロケーション情報よりも信頼できるものであると考えられるので、対象検出ユニットは好適には、画像内の対象の表現の決定の最中、加えられるマーカがロケーション情報より重く加重されるように適応される。例えば、表現を決定するために、表現と加えられたマーカとの間の距離を短縮することに伴って減少し、画像値から決定されるロケーション情報によって示される画像内の対象のロケーションと表現との間の距離を短縮することに伴って減少する費用関数が用いられることができる。
表現と加えられたマーカとの間の距離は、画像値から決定されるロケーション情報によって示されるロケーションと表現との間の距離よりも費用関数に大きく寄与することができる。対象検出ユニットは、費用関数を最小にすることによって表現を決定するように適応されることができる。
対象検出ユニットは、画像内の対象のロケーションを示す、画像の画像値に基づき決定されたロケーション情報に依存して、加えられたマーカの位置を補正することによって、及びマーカの補正された位置に基づいて画像内に対象の表現を提供することによって、画像内に対象の表現を提供するように適応されることができる。例えば、画像領域が対象に対応する見込みを示す尺度であって、1又は複数の画素によって形成されることができる尺度が、ロケーション情報によって規定される画像領域及びユーザにより加えられたマーカによって規定される画像領域に適用されることができ、この場合、ロケーション情報によって規定される画像領域に適用される尺度と、ユーザにより加えられたマーカによって規定される画像領域に適用される尺度との間の差異が、予め規定された閾値より大きい場合、ユーザにより加えられたマーカの近傍に位置するシフトされたマーカがより小さい差異をもたらすかどうかが判定されることができる。そうである場合、シフトされたマーカが、ユーザにより加えられたマーカの代わりに使用されることができ、補正されたマーカとみなされることができる。このようにして、少なくとも1つのマーカが補正されることができ、画像内における対象の表現は、少なくとも1つの補正されたマーカ及び任意にはユーザにより更に加えられた補正されていないマーカに基づいて、提供されることができる。この理由は、補正されたマーカは、すでに最初に十分な正確さを伴って画像内における対象のロケーションを示すからであり、すなわち例えば、シフトされたマーカは、個々のマーカによって規定される画像領域に適用される尺度と、ロケーション情報によって規定される画像領域に適用される尺度との間のより小さい差異を与えないからである。尺度は、例えば血管らしさ(vesselness)応答でありうる。特にユーザがマーカを画像に単に雑に加えた場合、ロケーション情報に依存して加えられたマーカの位置を補正することは、位置合わせの正確さを一層改善することができ、この場合、画像内における対象の表現は、マーカの補正された位置に基づいて提供される。
イメージング装置は、それぞれ異なる投影方向に対応する少なくとも2つの2次元投影画像を提供するように適応されることができ、対象検出ユニットは、a)ユーザが、2次元投影画像のうち第1の画像内の対象を示すために、第1の画像にマーカを加えることを可能にし、b)加えられたマーカに基づいて第1の画像内に対象の第1の表現を提供し、2次元投影画像のうち第2の画像の画像値に基づいて第2の画像内に対象の第2の表現を提供する、ように適応されることができ、位置合わせユニットは、イメージング領域における対象の追跡されたロケーション並びに第1及び第2の画像内の対象の第1及び第2の表現のロケーションに基づいて、位置合わせパラメータを決定するように適応されることができる。例えば、対象検出ユニットは、第2の画像内の対象のロケーションを示すロケーション情報を決定するために、対象検出アルゴリズムを第2の画像の画像値に適用することができる。この対象検出アルゴリズムは、例えば第2の画像内の対象をセグメント化するセグメント化アルゴリズムであり、セグメント化された対象は、第2の画像内の第2の表現を規定するロケーション情報であるとみなされることができる。位置合わせパラメータの決定の最中、加えられたマーカに基づいて提供された第1の画像内の第1の表現は、第2の画像内の対象の第2の表現よりも一層好適であると考えられ、その理由は、ユーザ入力に基づく第1の表現が、第2の表現より信頼性が高いと考えられるからである。これは、位置合わせプロセスの最中、各投影画像において個々の投影画像内の対象の位置を示すマーカをユーザが加える必要なく、それぞれ異なる投影画像内の表現を考慮することを可能にする。
本発明の別の見地において、対象をイメージングするイメージングシステムであって、対象の位置及び形状を決定することによって、関心領域(ROI)の画像を生成するイメージング装置と、関心領域における対象のロケーションを追跡する追跡装置と、位置合わせパラメータを決定する請求項1に記載の位置合わせシステムと、対象の追跡されたロケーション及び決定された位置合わせパラメータに基づいて、関心領域の画像内の対象のロケーションを決定するロケーション決定ユニットと、を有するイメージングシステムが提示される。
関心領域の画像内の対象のロケーションは、対象の追跡されたロケーション及び決定された位置合わせパラメータに基づいて決定されるので、関心領域の画像が、関心領域内の対象の実際のロケーションを表示する実際の画像である必要はない。事実、関心領域の画像は、より古い画像でもよく、この画像において、関心領域内の対象の実際のロケーションが、位置合わせパラメータ及び対象の実際に追跡されたロケーションに基づいて、表示されることができる。
本発明の他の見地において、介入プロシージャを実施するための介入器具と、請求項10に記載の介入器具をイメージングするためのイメージングシステムと、を有する介入システムが提示される。
本発明の別の見地において、対象の画像を生成するイメージング装置を、対象の位置及び形状を決定することによりイメージング装置の視野内の対象のロケーションを追跡する追跡装置と位置合わせするように適応される位置合わせ方法であって、対象検出ユニットによって画像の対象を検出するステップであって、対象検出ユニットが、a)ユーザが、対象が位置する画像内の任意の位置を示すために画像にマーカを加えることを可能にし、b)加えられたマーカに基づいて、画像内に対象の表現を提供する、ことを含むステップと、位置合わせユニットによって、追跡装置とイメージング装置との位置合わせを規定する位置合わせパラメータを決定するステップであって、位置合わせユニットが、イメージング装置の視野内の対象の追跡されたロケーション及び画像内の対象の表現のロケーションに基づいて位置合わせパラメータを決定する、ことを含むステップと、を有する位置合わせ方法が提示される。
本発明の他の見地において、対象をイメージングするイメージング方法であって、イメージング装置によって、関心領域の画像を生成するステップと、追跡装置によって、対象の位置及び形状を決定することにより関心領域の対象のロケーションを追跡するステップと、請求項12に記載の位置合わせ方法によって位置合わせパラメータを決定するステップと、ロケーション画像生成ユニットによって、対象の追跡されたロケーション、関心領域の画像、及び決定された位置合わせパラメータに基づいて、関心領域の画像内の対象のロケーションを示すロケーション画像を生成するステップと、を含む方法が提示される。
本発明の別の見地において、対象の位置及び形状を決定することによってイメージング装置の視野内の対象のロケーションを追跡する追跡装置と、対象の画像を生成するイメージング装置を位置合わせするように適応される位置合わせコンピュータプログラムであって、位置合わせコンピュータプログラムが位置合わせシステムを制御するコンピュータ上でランされるとき、請求項1に記載の位置合わせシステムに、請求項12に記載の位置合わせ方法の各ステップを実施させるプログラムコード手段を有する、位置合わせコンピュータプログラムが提示される。
本発明の他の見地において、対象をイメージングするイメージングコンピュータプログラムであって、イメージングコンピュータプログラムがイメージングシステムを制御するコンピュータ上でランされるとき、請求項10に記載のイメージングシステムに、請求項13に記載のイメージング方法の各ステップを実施させるプログラムコード手段を有する、イメージングコンピュータプログラムが提示される。
本発明の別の見地において、方法及びユーザインタフェースであって、イメージングシステムが、例えば、画像上に関心領域を配置し関心領域とインタラクトすること、2又はそれ以上の関心領域を配置しそれとインタラクトすること、又は画像内の選択された「候補」のポイントロケーション(例えば器具の先端のロケーション)の中から選択を行うこと、のような代替手法を使用して、位置合わせのためにユーザ情報を受け入れることを可能にすることによって、提供される位置合わせの使用を多くの異なるワークフローシナリオ及びユーザ嗜好にまで拡張する。
請求項1に記載の位置合わせシステム、請求項10に記載のイメージングシステム、請求項11に記載の介入システム、請求項12に記載の位置合わせ方法、請求項13に記載のイメージング方法、請求項14に記載の位置合わせコンピュータプログラム、及び請求項15に記載のイメージングコンピュータプログラムは、従属請求項に記載の同様の及び/又は同一の好適な実施形態を有することが理解されるべきである。
本発明の好適な実施形態は、個々の独立請求項と従属請求項又は上述の実施形態との任意の組み合わせであってもよいことが理解されるべきである。
本発明のこれら及び他の見地は、以下に記述される実施形態から明らかになり、それらを参照して説明される。
介入システムの実施形態を概略的及び例示的に示す図。 介入システムのイメージング装置によって取得された2つの投影画像を概略的及び例示的に示す図。 ユーザによって投影画像に加えられたマーカを概略的及び例示的に示す図。 投影画像に表示されるガイドワイヤの表現を概略的及び例示的に示す図。 位置合わせ結果を概略的及び例示的に示す図。 ガイドワイヤをイメージングするイメージング方法の実施形態を例示的に示すフローチャート。 介入システムのイメージング装置によって取得された投影画像のガイドワイヤの他の表現を概略的及び例示的に示す図。 介入システムのイメージング装置によって生成される他の投影画像を示す図であって、ガイドワイヤのロケーションを示すためのマーカが投影画像に雑に加えられている図。 個々の投影画像におけるガイドワイヤを近似するための経路を概略的及び例示的に示す図。 個々の投影画像におけるガイドワイヤを近似するための経路を概略的及び例示的に示す図。 他の位置合わせ結果を概略的及び例示的に示す図。 位置合わせプロシージャを概略的及び例示的に示す図。 長方形を移動させることによるデバイスローカライゼーションを概略的及び例示的に示す図。 関心領域にデバイスを移動させることによるデバイスローカライゼーションを概略的及び例示的に示す図。 自動的に検出された先端候補からの選択を概略的及び例示的に示す図。 規定された解剖学的位置にデバイスを移動させることによるデバイスローカライゼーションを概略的及び例示的に示す図。 複数の関心領域からの選択を概略的及び例示的に示す図。 ガイドワイヤの入口位置を規定するためのスライダの使用を概略的及び例示的に示す図。
図1は、介入システムの実施形態を概略的及び例示的に示す。介入システム1は、介入プロシージャを実施する介入器具33を有する。この実施形態において、介入器具33は、カテーテル制御ユニット15によって制御されるカテーテルである。カテーテル制御ユニット15及びカテーテル33は、例えば、患者テーブル26のような支持手段上に横たわる人25の心臓24内においてアブレーションプロシージャを実施するように適応されることができる。しかしながら、カテーテル33及びカテーテル制御ユニット15は、別の介入プロシージャを実施するように適応されることもできる。更に、介入システムは、ニードルのような別の介入器具を有することができる。この実施形態において、カテーテル33は無線周波数(RF)アブレーションプロシージャを適用するように適応され、カテーテル制御ユニット50は、RFエネルギーを、カテーテル33の先端23に配されるアブレーション電極に供給するように適応される。
心臓24にカテーテル33を挿入するために、更なる介入器具であるガイドワイヤが使用され、ガイドワイヤは、人25内のガイドワイヤのロケーションを決定するための、すなわち、OSSによって人25内のガイドワイヤの位置及び形状を決定するために、追跡制御ユニット4に接続されるOSSファイバを具備する。人25内のガイドワイヤのロケーションを決定するために、米国特許第7,772,541B2号公報に開示される技法のような知られているOSS技法が使用されることができ、その内容は、参照によってここに盛り込まれるものとする。OSSファイバを具備するガイドワイヤ及び追跡制御ユニット4、特にOSSファイバ及び追跡制御ユニット4は、人25の身体内のガイドワイヤのロケーションを追跡する追跡装置とみなされることができる。
介入システム1は更に、本実施形態においてはX線Cアームシステムであるイメージング装置2を有する。イメージング装置2は、人25を横切るX線19を生成するX線源18と、人25を横切った後のX線を検出するX線検出器21とを有する。X線源18及びX線検出器21は、さまざまな異なる投影方向においてX線投影画像を取得するために人25の周りを回転できるCアーム20に取り付けられる。イメージング装置は、イメージング装置制御ユニット22によって制御され、イメージング装置制御ユニット22は、X線検出器21から検出値を受け取り、受け取った検出値に基づいて2次元投影画像を生成する。2次元投影画像は、2次元投影画像内のガイドワイヤを検出するための対象検出ユニット5に提供され、対象検出ユニット5は、a)ガイドワイヤが位置する2次元投影画像内の任意の位置を示すために、ユーザがマーカを該2次元投影画像に加えることを可能にし、b)加えられたマーカに基づいて、2次元投影画像内にガイドワイヤの表現を提供する、ように適応される。対象検出ユニット5は、好適には、ユーザが、キーボード、コンピュータマウス、タッチスクリーン、その他の入力ユニット16及びディスプレイ17を使用することによって、マーカを2次元投影画像に加えることを可能にするグラフィカルユーザインタフェースを提供する。
マウスの使用は、位置合わせステップにおいて低減され又は排除されることができる。一実施形態において、ユーザは、タッチスクリーン装置を使用してすべてのステップを実行する。別の実施形態において、ユーザは、何もクリックせず又はタッチせずに、画像上の強調表示された領域にマーカを配置する。別の実施形態において、ユーザは、システムによってリクエストされた又は計画ステップにおいて入力された予め規定された解剖学的領域にマーカを持っていく。
図2は、それぞれ異なる投影方向において取得された2つの2次元投影画像7、8を概略的及び例示的に示しており、各々の2次元投影画像7、8は、ガイドワイヤ3を示している。図3は、ユーザによって2次元投影画像7、8に加えられたマーカ9を概略的及び例示的に示す。図4は、加えられたマーカ9に基づいて、対象検出ユニット5によって決定されたガイドワイヤ3の表現10を概略的に及び例示的に示す。この実施形態において、対象検出ユニット5は、加えられた複数のマーカを複数のラインセグメントによって単に接続することによって、表現10を決定する。別の実施形態において、対象検出ユニット5は、別のやり方で、例えば加えられた複数のマーカ9に曲線をフィットさせることによって、加えられたマークに基づいて表現を決定するように適応されることができる。
介入システム1は、イメージング装置2と追跡装置3、4との位置合わせを規定する位置合わせパラメータを決定する位置合わせユニット6を更に有し、位置合わせユニット6は、イメージング装置2の視野内におけるガイドワイヤ3の追跡されたロケーション、及び2次元投影画像7、8内のガイドワイヤ3の表現10のロケーションに基づいて、位置合わせパラメータを決定するように適応される。特に、位置合わせユニット6は、2次元投影画像7、8を生成するためにイメージング装置によって使用される投影ジオメトリを考慮してガイドワイヤ3の追跡された3次元ロケーションの2次元投影を計算し、及び追跡装置3、4によって規定される座標系とイメージング装置2によって規定される座標系との間の空間変換を計算することによって、位置合わせパラメータを決定するように適応され、空間変換は、ガイドワイヤ3の追跡された3次元ロケーションの計算された2次元投影と2次元投影画像7、8におけるガイドワイヤ3の表現10のロケーションとの間の偏差を最小にする。
図5は、位置合わせ結果を示す。特に、図5において、追跡装置によって供給されるガイドワイヤ3のロケーションは、実線11によって示されており、かかる実線11は、個々の2次元保護画像7、8に表示されるガイドワイヤ3のロケーションに非常によく対応する。図5に示される2次元投影画像7、8において、ガイドワイヤ3の先端及び実線11の先端は、重なり合っていないが、これは単に、この例では物理的にOSSファイバがガイドワイヤ3の先端に到達していないという理由によることに留意すべきである。しかしながら、別の実施形態において、OSSファイバがガイドワイヤ3の先端に到達している場合、ガイドワイヤ3の先端の追跡されたロケーションもまた、個々の投影画像に表示されるガイドワイヤ3のロケーションに非常に良く対応し、それにより、図5の実線11は、2次元投影画像7、8のガイドワイヤ3を完全にカバーする。図5の2次元投影画像7、8に表示される人32は、単に2つの2次元投影画像7、8の間の空間関係を示すように使用される。人32は、任意のものであり、2次元投影画像7、8に表示されなくてもよい。
位置合わせが完了されたのち、ガイドワイヤ3は、人25の範囲内で移動されることができ、移動中、追跡装置3、4は、人25内のガイドワイヤのロケーションを追跡し、ガイドワイヤ3の追跡されたロケーションは、2次元投影画像7、8に表示されることができる。ここで、これらの投影画像は必ずしも再度取得される必要がなく、その理由は、ロケーション決定ユニット14が、ガイドワイヤ3の追跡された実際のロケーション及び決定された位置合わせパラメータに基づいて、ガイドワイヤ3が実際に移動される関心領域の以前に取得された2次元投影画像内でガイドワイヤ3のロケーションを決定することができるからである。従って、人25の内部の解剖学的構造に対し人25内のガイドワイヤ3のロケーションを決定するために2次元投影画像を取得する必要はない。
対象検出ユニット5及び位置合わせユニット6は、イメージング装置2を追跡装置3、4と位置合わせするための位置合わせシステム13を形成するものとみなされることができる。更に、イメージング装置2、追跡装置3、4、位置合わせシステム13及びロケーション決定ユニット14は、人25内のガイドワイヤ3をイメージングするイメージングシステムを形成するものとみなされることができる。
以下において、介入プロシージャをモニタするためのイメージング方法の実施形態が、図6に示されるフローチャートを参照して例示的に記述される。
ステップ101において、ガイドワイヤ3が、イメージング装置2の視野内に配置され、イメージング装置2が、ガイドワイヤ3の2次元投影画像を生成する。更に、イメージング装置2の視野内のガイドワイヤ3のロケーションが、追跡装置3、4によって決定される。ステップ102において、2次元投影画像は、ディスプレイ17を使用することによってユーザに表示され、ユーザは、対象検出ユニット5を使用することによって、ガイドワイヤ3が位置する2次元投影画像内の任意の位置を示すために、マーカを該2次元投影画像に加える。更に、対象検出ユニット5は、加えられたマーカに基づいて、2次元投影画像内にガイドワイヤ3の表現を提供する。ステップ103において、位置合わせユニット6は、イメージング装置2の視野内のガイドワイヤ3の追跡されたロケーション及び2次元投影画像内のガイドワイヤ3の表現のロケーションに基づいて、イメージング装置2と追跡装置3、4との位置合わせを規定する位置合わせパラメータを決定する。ステップ101乃至103は、位置合わせ方法を形成するものとみなされることができ、かかる位置合わせ方法は、ガイドワイヤ3が人25に挿入される前に、介入システムが較正される較正プロシージャの間に実施されることができる。
位置合わせパラメータが決定されたのち、人25は、イメージング装置2の視野内の支持手段26に配置されることができ、それにより、イメージング装置2は、ステップ104において、人25内の関心領域の2次元投影画像を生成することができる。関心領域は、好適には、ガイドワイヤ3が領域を通って移動されるべきである人25内の該領域である。次に、ガイドワイヤ3は、人25に導入されることができ、ガイドワイヤ3の導入及び人25内におけるガイドワイヤ3の移動の間、ガイドワイヤ3のロケーションは、ステップ105において、追跡装置3、4によって追跡される。ステップ106において、ステップ104において取得された2次元投影画像内におけるガイドワイヤ3のロケーションは、ガイドワイヤの追跡されたロケーション3及び決定された位置合わせパラメータに基づいて決定され、ディスプレイ17は、2次元投影画像内のガイドワイヤ3の決定されたロケーションを示す。ステップ107において、2次元投影画像内のガイドワイヤ3のロケーションのイメージングが止められるべきかどうかがチェックされる。例えば、ユーザが、2次元投影画像内のガイドワイヤ3のロケーションのイメージングが止められるべきであることを入力ユニット16を介して介入システムに入力したかどうかがチェックされる。そうである場合、方法はステップ108において終わる。そうでない場合、方法は、ステップ105に続く。特に、2次元投影画像内のガイドワイヤ3のロケーションのイメージングが止められるべきときまで、ステップ105及び106は、ループ内で連続的に実施される。人25内におけるガイドワイヤ3の移動中にループ内でステップ105及び106を実施することによって、ユーザは、必ずしもリアルタイムにX線画像を取得する必要なしに、人25内のガイドワイヤ3の移動をリアルタイムにモニタすることができる。他の実施形態において、イメージング装置の視野が変更されたかどうかがステップ107においてチェックされることができ、この場合、方法は、ステップ104に続くことができる。
位置合わせシステムは、好適には、3次元OSSのための半自動ソリューションを、2次元X線画像位置合わせに提供する。位置合わせシステムは、好適には、ユーザが例えばガイドワイヤ3のようなデバイスをX線画像上でマークすることを可能にするように適応され、この場合、ユーザは、デバイスの曲率に依存して、可変のポイント数を選択することができる。デバイスは、直線又は曲線によって表現されることができ、デバイスが直線によって又は曲線によって表現されるべきかの判定は、計算上の制約及び/又は要求される正確さに依存しうる。デバイス表現及び3次元OSSデータの投影を使用して、位置合わせパラメータが計算される。このようにして、位置合わせは、実質的にデバイスの特性に関係なく、すなわち実質的にOSSにより追跡されたデバイスの特性に関係なく、達成されることができる。更に、この位置合わせプロシージャは、特定のイメージングモダリティに制限されない。従って、上述した実施形態において、イメージング装置はX線Cアーム装置であるが、他の実施形態においては、他のX線イメージング装置、超音波イメージング装置、磁気共鳴イメージング装置等の他のイメージング装置が、追跡装置と位置合わせされることができる。
位置合わせシステムの対象検出ユニットは、ユーザが、マーカを画像に加えるために、イメージング装置によって提供される画像に示されるガイドワイヤ3のようなデバイス上のいくつかのポイントをクリックすることを可能にするグラフィカルユーザインタフェースを提供するように適応されることができる。これらのポイントは、好適にはデバイスの先端上のポイントを有する。
上述の実施形態において、デバイスの表現、特にガイドワイヤ3の表現は、ユーザによって加えられたマーカを直線によって接続することによって提供されるが、他の実施形態では、表現は、カーブフィッティングプロシージャによって決定されることができ、この場合、デバイスの高次近似が使用されることができる。結果的に得られる曲線が、曲線上の画素に隣り合う画素(好適にはピクセル)からの最も大きい強度差を達成するように、曲線が、加えられたマーカにフィットされることができる。更に他の手法が、曲線をフィットさせるために使用されることができ、個々の手法が最適化され、すなわち最小にされ又は最大にされるように、曲線が決定される。例えば、個々の曲線上のすべての画素についての血管らしさ(vesselness)応答の合計とすべての近傍の画素の血管らしさ応答の合計との間の差が、曲線をフィットさせるための尺度として使用されることができる。他の代替尺度は、例えば一次導関数、エッジ応答等である。血管らしさ応答は、例えば文献"Model-Based Detection of Tubular Structures in 3D images" by K. Krissian et al., Computer Vision and Image Understanding, volume 80, number 2, pages 130 to 171(2000)又は文献"Multiscale vessel enhancement -ltering" by A. F. Frangi et al., Medical Image Computing and Computer-Assisted Intervention - MICCAI f98, Lecture Notes in Computer Science, volume 1496, pages 130 - 137 (1998)に開示されるようなヘッセ行列関数として規定されることができ、これらの内容は参照によって本明細書に盛り込まれるものとする。エッジ応答は、文献"A Computational Approach To Edge Detection" by J. Canny, IEEE Transactions on Pattern Analysis and Machine Intelligence, volume 8, number 6, pages 679 to 698 (1986)に開示されるように決定されることもでき、その内容は、参照によって本願明細書に盛り込まれるものとする。
従って、表現は、個々の画像に加えられるマーカだけでなく、個々の画像の画素の画像値にも基づいて、決定されることができる。血管らしさ応答尺度を使用することによって図4に示される表現10と比較してより高いスコアを達成したガイドワイヤ3の表現12が、図7に概略的及び例示的に示される。
一実施形態において、対象検出ユニットは、個々の画像の画素の画像値を使用して個々の画像内のガイドワイヤ3のロケーションを示すロケーション情報を決定するために、及び加えられたマーカに基づいて及びロケーション情報に基づいて個々の画像内におけるガイドワイヤの表現を決定するように、適応されることができる。特に、対象検出ユニットは、個々の画像における対象のロケーションを示すロケーション情報を生成するために、個々の画像にセグメント化アルゴリズムのような対象検出アルゴリズムを適用するように適応されることができる。ロケーション情報は、例えばセグメント化された対象である。対象が位置する個々の画像内の任意の位置を示すマーカは、自動的に決定されたロケーション情報より信頼性が高いと思われるので、対象検出ユニットは、好適には、個々の画像内における対象の表現の決定の間、加えられたマーカのロケーションがロケーション情報より重く加重されるように適応される。例えば、表現を決定するために、表現と加えられたマーカとの間の距離の減少とともに低下し、表現と画像値から決定されるロケーション情報によって示される個々の画像内の対象のロケーションとの間の距離の減少とともに低下する費用関数が使用されることができ、表現と加えられたマーカとの間の距離は、表現と画像値から決定されるロケーション情報によって示されるロケーションとの間の距離よりも大きく費用関数に寄与する。対象検出ユニットは、費用関数を最小にすることによって表現を決定するように適応されることができる。
位置合わせシステムの対象検出ユニットは、ユーザ入力の不正確さを自動的に補正するようにも適応されることができる。この自動補正は、図8乃至図11を参照して以下に例示的に記述される。
図8は、2つの異なる取得方向、すなわち投影方向に対応する2つの2次元X線投影画像40、41を概略的及び例示的に示す。これらの画像40、41において、ガイドワイヤ3は、ユーザにとって可視であり、ユーザは、X線画像40、41において、ガイドワイヤ3のロケーションを示すためにマーカ42を雑に加えた。画像40、41は更に、位置合わせの前に追跡装置によって提供されたガイドワイヤ3のロケーション43を示す。更に、画像40、41は、個々の投影方向を表すために人32を表示している。他の例において、追跡装置及び/又は人32によって提供されるガイドワイヤ3のロケーション43が、この段階で表示されなくてもよい。
対象検出ユニットは、ユーザにより示されたポイント42に基づいて最小費用を有する個々の画像内の経路を検出することによって、個々の画像40、41内のガイドワイヤ3のロケーションを表すロケーション情報を決定するように適応されることができ、ここで、費用は、血管らしさ応答の関数でありうる。例えば、経路上の画素の血管らしさ応答に依存し及び経路とユーザにより示されたポイント42との間の距離に依存する費用関数が最小にされるように、経路が検出されることができる。図9は、図8に示される左の画像40についてこのような検出された経路50を概略的及び例示的に示す。
図10は、図8に表示される右の画像41についてこのような検出された経路51を概略的及び例示的に示す。対象検出ユニットは更に、ロケーション情報に依存して、すなわち検出された経路50、51に依存して、加えられたマーカの位置を補正するように適応されることができる。特に、これらの経路50、51が検出されたのち、個々の経路50、51上の画素の血管らしさ応答の平均スコアが、計算されることができ、平均費用とみなされることができるこの尺度は、個々の加えられたマーカ42の対応する尺度と比較されることができ、すなわち、この実施形態では個々のマーカ42の血管らしさ応答と比較されることができる。個々の経路50、51についての平均尺度と個々の加えられたマーカ42についての尺度との間の差が、予め規定された閾値より大きい場合、個々の加えられたマーカ42の近傍において、計算された尺度より小さい差を有する尺度が個々の経路50、51について計算される画素又は隣接する画素のグループが、検索される。このようにして、個々のマーカ42の位置は、それに応じて位置をシフトすることによって自動的に補正されることができる。ガイドワイヤ3の表現は、それらを自動的に補正するためにシフトされた及びシフトされないものでありうるマーカに基づいて決定されることができる。
図11は、雑に加えられたマーカ42に基づいてまず実施される位置合わせの結果を例示的に示す。図11から分かるように、位置合わせが実施されたのち、追跡装置によって提供されたガイドワイヤ3のロケーション43は、個々の画像40、41に表示されるガイドワイヤ3のロケーションに非常によくフィットしており、ただし、最初に加えられたマーカ42は、個々の画像40、41内のガイドワイヤ3のロケーションを非常に雑に示すにすぎない。
上述された実施形態において、追跡装置は、OSSを使用することによってデバイスを追跡するように適応されるが、他の実施形態において、更に、電磁トラッキング技法のような他のトラッキング技法が使用されることもできる。更に、上述の実施形態において、位置合わせが介入アプリケーションにおいて使用されているが、別の実施形態では、位置合わせは、対象を追跡する追跡装置と対象をイメージングするイメージング装置との間の位置合わせを必要とする別のアプリケーションにおいて使用されることもできる。
マーカがそれぞれ異なるビューに(すなわちそれぞれ異なる投影方向に対応する異なる画像に)加えられる場合、これらのマーカは、ガイドワイヤ上の同じ物理的ポイントをさす必要はない。ユーザは、それぞれ異なるビューにおけるポイントの対応付けに煩わされることなく、ガイドワイヤ上の任意のポイントを識別すればよいだけであるので、これは、改善されたユーザフレンドリネスにつながる。更に、識別されたポイントの対応付けについての推測は必要とされないので、すなわち、対応付けの不整合から生じる不正確さがないので、位置合わせは非常にロバストである。更に、物理的なマーカ素子をガイドワイヤに物理的に取り付ける必要がなく、それに対応して、これらの物理的なマーカ素子が画像内で認識される必要がないので、物理的な技術的なマーカが特定のビューにおいて可視でない場合に問題になりうるフォアショートニングは、図1乃至図11を参照して上述された位置合わせシステム及び方法を使用する場合には問題ではない。位置合わせは更に、個々の画像において可視である解剖学的構造についての推測を必要としない。更に、位置合わせは、介入プロシージャが始まる前、較正ステップの間に実施されることができる。しかしながら、位置合わせは、当然ながら介入プロシージャの間にも実施されることができる。更に、位置合わせプロシージャは、低い品質画像に、例えば低線量蛍光透視画像に基づくことができ、画像品質は、ただ、ユーザがマーカを画像に加えることを可能にするに十分であればよい。
上述した実施形態において、対象検出ユニットは、加えられたマーカに基づいて複数のラインセグメント又は曲線を決定することによって、個々の画像におけるガイドワイヤの表現を決定するように適応されるが、他の実施形態では、対象検出ユニットは更に、例えば複数のラインセグメント又は曲線を決定することなく、個々の画像において対象の表現として加えられたマーカを提供するように適応されることもできる。この場合、位置合わせユニットは、イメージング装置の視野内のガイドワイヤの追跡されたロケーション及び個々の画像に加えられたマーカのロケーションに基づいて、位置合わせパラメータを決定するように適応される。図12は、イメージング装置の視野内のガイドワイヤの追跡されたロケーション及び個々の画像に加えられたマーカのロケーションに基づいて、位置合わせパラメータを決定する位置合わせプロシージャを概略的及び例示的に示す。
図12は、ガイドワイヤ3が位置する個々の投影画像7、8内の任意の位置を示すためにユーザによって加えられたマーカ9を有する2つの2次元投影画像7、8を示す。破線11は、追跡装置によって追跡されたガイドワイヤ3の投射されたロケーションを示し、矢印19は、加えられたマーカ9と、投影されたロケーション11上の個々の最も近いポイントとの間の距離を示す。位置合わせユニットは、追跡装置の座標系とイメージング装置の座標系との間の空間変換を決定することによって、位置合わせパラメータを決定するように適応されることができ、かかる空間変換は、距離19を最小にし、特に二乗距離の和又は加えられたマーカ9と投影されたロケーション11との間の偏差を示す別の尺度を最小にする。
上述した実施形態において、ユーザは、マーカを2つの異なる投影画像に加えたが、他の実施形態では、ユーザは、マーカをすべての投影画像にではなく、第1の投影画像にのみ加えることもでき、この場合、第1の投影画像について、対象の第1の表現が、加えられたマーカに基づいて提供されることができる。別の投影画像、すなわち第2の投影画像において、対象の第2の表現が、第2の投影画像の画像値に基づいて決定されることができる。例えば、第2の投影画像のガイドワイヤのロケーションを表すロケーション情報は、第2の画像の画像値に基づいて決定されることができる。特に、セグメント化アルゴリズムが、第2の画像のガイドワイヤをセグメント化するために第2の投影画像に適用されることができ、セグメント化されたガイドワイヤは、ロケーション情報であるとみなされることができ、この例では、第2の表現であるともみなされることができる。位置合わせユニットは、イメージング領域のガイドワイヤの追跡されたロケーション、並びに第1及び第2の投影画像におけるガイドワイヤの第1及び第2の表現のロケーションに基づいて、位置合わせパラメータを決定するように適応されることができる。位置合わせプロシージャの間、第1の表現は、第2の表現よりも信頼性が高いと考えられるので、第1の表現は、好適には、第2の表現より大きい重みを受け取る。
画像位置合わせを具体化するためにデバイスローカライゼーションを支援するためにユーザにとってユーザフレンドリな多くの方法が提供されることができる。これらの方法は、(1)全体の画像より小さいROIを規定することによるユーザ支援、(2)アルゴリズムの結果からデバイスセグメントを選択することによるユーザ支援、又は(3)アルゴリズムにより要求される位置にデバイスを位置付けることによるユーザ支援、を含む。
一実施形態において、ユーザは、投影画像を表示する画面上でROIを移動させることによって、デバイスポイントの位置を示す。ROIは、さまざまな方向において移動されることができ、そのサイズは、拡大又は縮小することによって調整されることができる。アルゴリズムは、この制限されたユーザ規定される領域において1又は複数のデバイスポイントを探す。
ROIの配置及び位置決めは、(矢印ボタンを使用することによって)現在のタッチスクリーンモニタ装置(TSM)、及びユーザが画像を見て、入力を提供するためにそれらに触れることができるより新しいTSMデバイス、から行われることができる。図13(a)−(c)において、デバイスローカライゼーションは、投影画像67、68、69上の長方形を移動させることによってある。ユーザは、ROIを示すために、長方形52を提供される。ユーザは、TSMボタンを通じて、図13(a)−(c)に示すようにデバイスの先端に長方形52を移動させ、サイズ変更する(ズームする)。ROIが、図13(a)に示されている。ここで、ROIは、長方形52の形であるが、領域を規定する任意の閉じた形式でありうる。ユーザは、投影画像68の先端53の方へ図13(b)のROIの長方形52を移動させ、位置を固定する。図13(c)に示される段階では、アルゴリズムは、提供されたROI長方形52内の先端を自動的に検出し、その結果を投影画像69に示す。この段階では、アルゴリズムは、提供されたROI長方形52内の先端53を自動的に検出し、結果を表示する。
更に、システムは、例えば境界ボックスのような関心領域をモニタに表示し、ユーザに、位置合わせのために画像を使用する前に、ボックス内にデバイス先端を位置付けるよう求めることができる。
図14(a)−(c)において、デバイスローカライゼーションは、ROI内でデバイスを移動させることによる。システムは、投影画像を表示する画面55上にROIを示す長方形54を提示する。ユーザは、この長方形内にデバイス56を位置付け、X線位置合わせを具体化する際に使用する画像としてその画像を受け入れる。ROI長方形54は、デバイスが見つけられることが期待される場所に提示される(図14(b))。ユーザは、規定された/強調表示されたROI長方形54内にデバイスを位置付け、X線画像を取得する。
アルゴリズムは、提供されたROI長方形54内の先端57を自動的に検出し、その結果(図14(c)の先端57における画像内のドット)を表示する。
代替として、ユーザは、画像解析アルゴリズムを適用することによって得られた候補結果の組からデバイスポイントを選ぶことができる。各々のTSMボタンタッチは、画像に表示される別の候補結果にフォーカスをタブ付けする(タブナビゲーション)。正しいポイントにフォーカスが合うとき、ユーザは、デバイスポイントとしてこれを設定する。タッチセンシティブ画面において、ユーザは、表示された候補結果の1又は複数の上/周囲を単に触れることによってポイントを示すことができる。
図15(a)−(c)において、選択は、投影画像(又は画像)70、71、72の自動検出された先端候補から行われる。アルゴリズムは、デバイス先端の複数の候補を検出する。ユーザは、検出閾値を変更し、及び/又は実際の先端に対応する候補ポイントを選択することができる。図15(a)において候補先端ロケーション58'、58''、58'''、58''''、58'''''が、自動的に提示される。ユーザは、検出閾値を増大することによって、図14(b)に示すように検出先端(58'、58''、58''''')の数を低減することができる。ユーザは、検出された先端位置にタブ付けするためにTSMを押す。図14(c)には、星で特徴付けられた選択された実際の先端58'が示される。更に、星で特徴付けられた58'''''が選択されるべき次のものを示す。
図16(a)、(b)において、デバイスローカライゼーションは、投影画像73、74において規定された解剖学的位置にデバイスを移動させることによる。システムは、例えば図16(a)の59、60、61、62、63のような特定の解剖学的ロケーションにデバイスを位置付けるように、ユーザにリクエストする。リクエストされた位置にデバイスを有するX線画像は、位置合わせに使用する画像として、ユーザによって受け入れられる。ここでリクエストされた位置は60である。デバイスは、要求された位置60にナビゲートされ、その時点ですぐにX線画像が位置合わせのために使用される。
更に、システムは、予め規定された解剖学的位置(解剖学的情報は、計画ステップのX線/CT位置合わせ結果からアルゴリズムに対し利用可能でありうる)にROIを設定することができる。デバイス先端が、期待されるロケーションの近くにくると、オペレータは、位置合わせのためにX線画像を取得する。
システムは、ユニークなラベルを有する複数ROIを表示することができ(ROIは、規則的なグリッドとして位置付けられることができ、又は画像解析アルゴリズムの関数として位置付けられることができる)、ユーザは、デバイスを示すために1又は複数のROIを選ぶ。ユーザは、1又は複数のROIを選択するために、ボイスコマンド、TSMボタン、タッチスクリーン又はマウスを使用することができる。
図17は、投影画像75上の複数ROIからの選択を示す。システムは、ユーザが選ぶべき例えば65'、65''、65'''のような複数のROIを提供する。ユーザは、ROIの識別子を読み上げることによって、又は、触れる、クリックする又はタブを使用することによって、1又は複数のROIを選択する。ROIは、規則的な格子構造を有することができ、自動的にサイズ設定をされることができ、階層的でありうる。例えば、ROIが選択されると、同じグリッド処理が、より制限された領域を規定するために、選択されたROIに適用されることができる。
ある例では、先端に加えて、画像内にデバイスのエントリポイントを提供することも望ましいことがある。図18において、スライダ66が、この目的のためにワイヤの入口位置を規定するために使用される。ワイヤ入口の位置を画像に規定するために、スライダ66が、図18に示されるように使用されることができる。ユーザは、入口ポイント77のロケーションにスライダを移動させる。図の下方で、スライダのセグメントは、デバイスの入口領域を規定する。赤いセグメントの幅は、調整されることができる。
本発明は、より効率的であると考えられる場合は上述の方法の任意のものを組み合わせることができる。例えば、視野内に複数のデバイスがあってもよく、その場合、ユーザにまずROIを標示させ、次いでアルゴリズム結果から候補を選択することが有用でありうる。
更に、複数のビューが位置合わせのために使用される場合、1つのビューにおける任意の入力は、他のビューに提示される結果を改善するために使用されることができる。例えば、先端が、ユーザ入力により第1のビューにおいて検出される場合、第2のビューにエピポーラ線が表示されることができ、及び/又はエピポーラ線の周囲のポイント候補のみが、有効なオプションとして提示されることができる。提示される長方形が、それが計算されたエピポーラ線に中心をおかれ、この線に沿ってのみ移動するように、提示されることができる。
上述の実施形態において、イメージング装置と追跡装置との位置合わせを規定する位置合わせパラメータを決定するための特定の方法が記述されたが、他の実施形態において、位置合わせユニットは、別のやり方で位置合わせパラメータを決定するように適応されることができる。例えば、ユーザが、マーカを、それぞれ異なる投影方向に対応するいくつかの2次元投影画像に加えたのち、位置合わせユニットは、異なる2次元投影画像に加えられたマーカに基づいて、対象の3次元ロケーションを決定することができ、位置合わせパラメータは、2次元投影画像に加えられたマーカから導き出されたこの3次元ロケーションと、追跡装置によって提供される対象の3次元ロケーションとに基づいて、決定されることができる。
上述の実施形態において、イメージング装置が、2次元画像を提供するために適応され、対象検出ユニットが、ユーザが、対象が位置する2次元画像内の任意の位置を示すためにマーカを該2次元画像に加えることを可能にするように適応されているが、他の実施形態おいて、イメージング装置は、コンピュータトモグラフィ画像、磁気共鳴画像、X線Cアームシステムによって取得されるさまざまな異なる2次元投影画像から再構成される3次元画像、その他のような、対象の3次元画像を生成するように適応されることもでき、対象検出ユニットは、ユーザがマーカを3次元画像に加えることを可能にし、加えられたマーカに基づいて3次元表現を提供するように適応されることができる。この場合、位置合わせユニットは、イメージング装置の視野内の対象の追跡された3次元ロケーションと、3次元画像における対象の表現の3次元ロケーションとに基づいて、位置合わせパラメータを決定するように適応されることができる。
追跡装置がイメージング装置と位置合わせされたのち、追跡デバイスと位置合わせされたイメージング装置及び他のイメージング装置が、互いに位置合わせされる場合は、対象の追跡されたロケーションは、イメージング装置によって取得されずに他のイメージング装置によって取得された他の画像において表示されることもできる。これらの他の画像は、介入プロシージャの前又は介入プロシージャの間に取得されたものでありうる例えばコンピュータトモグラフィ画像、磁気共鳴画像等でありうる。
図1を参照して上述された介入システムは、アブレーションプロシージャを実施するように適応されているが、他の実施形態において、介入システムは、別の介入プロシージャを実施するように適応されることができる。更に、位置合わせシステム及び位置合わせ方法が、追跡装置とイメージング装置との位置合わせを必要とする、他の非介入プロシージャにおいても使用されることができる。
開示された実施形態に対する他の変更は、図面、開示及び添付の請求項の検討から、請求項に記載の本発明を実施する際に当業者によって理解され達成されることができる。
請求項において、「有する、含む(comprising)」という語は、他の構成要素又はステップを除外せず、不定冠詞「a」又は「an」は複数性を除外しない。
単一のユニット又は装置が、請求項に列挙されるいくつかのアイテムの機能を果たすことができる。特定の手段が相互に異なる従属請求項に列挙されているという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを示さない。
グラフィカルユーザインタフェースの提供、加えられたマーカに基づく画像内における対象の表現の決定、1又は複数のユニット又は装置によって実施されるプロシージャは、任意の他の数のユニット又は装置によって実施されることができる。位置合わせ方法に従う位置合わせシステムの制御、及び/又はイメージング方法に従うイメージングシステムの制御は、コンピュータプログラムのプログラムコード手段として及び/又は専用ハードウェアとして、実現されることができる。
コンピュータプログラムは、他のハードウェアと共に又はその一部として供給される、例えば光学記憶媒体又はソリッドステート媒体のような適切な媒体に記憶され/配布されることができるが、他の形式で、例えばインターネット又は他のワイヤード又はワイヤレス通信システムを通じて配布されることもできる。
請求項における任意の参照符号は、その範囲を制限するものとして解釈されるべきでない。
本発明は、X線Cアームデバイスのようなイメージング装置を、光学形状センシング追跡装置のような追跡装置と位置合わせする位置合わせシステムに関する。対象検出ユニットは、a)ユーザが、対象上の任意の位置を示すためにマーカを対象の画像に加えることを可能にし、b)加えられたマーカに基づいて対象の表現を提供する、ように適応され、位置合わせユニットは、追跡装置によって追跡される対象のロケーションと表現のロケーションとに基づいて、位置合わせパラメータを決定する。この種の位置合わせは、ユーザにとって可視である画像内の任意の対象について実施されることができ、それにより、位置合わせのために様々な種類の対象を使用することを可能にする。

Claims (15)

  1. 対象の画像を生成するイメージング装置と、前記対象の位置及び形状を決定することにより前記イメージング装置の視野内の前記対象のロケーションを追跡する追跡装置と、を位置合わせする位置合わせシステムであって、
    前記画像内の対象を検出する対象検出ユニットであって、a)前記対象が位置する前記画像内の任意の位置を示すために、ユーザがマーカを前記画像に加えることを可能にし、b)前記加えられたマーカに基づいて前記画像内に前記対象の表現を提供する、対象検出ユニットと、
    前記追跡装置と前記イメージング装置との位置合わせを規定する位置合わせパラメータを決定する位置合わせユニットであって、前記イメージング装置の視野内の対象の追跡されたロケーション及び前記画像内の前記対象の表現のロケーションに基づいて、前記位置合わせパラメータを決定する、位置合わせユニットと、
    を有する位置合わせシステム。
  2. 前記イメージング装置は、前記視野の2次元投影画像を生成し、
    前記対象検出ユニットは、a)前記2次元投影画像内の前記対象を示すために、ユーザがマーカを前記2次元投影画像に加えることを可能にし、b)前記加えられたマーカに基づいて前記2次元投影画像内に前記対象の表現を提供し、
    前記位置合わせユニットは、前記イメージング装置の前記視野内の前記対象の追跡されたロケーション及び前記2次元投影画像における前記対象の表現のロケーションに基づいて、前記位置合わせパラメータを決定する、請求項1に記載の位置合わせシステム。
  3. 前記イメージング装置は、それぞれ異なる投影方向に対応する少なくとも2つの2次元投影画像を生成し、
    前記対象検出ユニットは、a)前記異なる2次元投影画像内の対象を示すために、ユーザがマーカを前記2次元投影画像の各々に加えることを可能にし、b)前記加えられたマーカに基づいて前記2次元投影画像内に前記対象の表現を提供し、
    前記位置合わせユニットは、前記視野内の対象の追跡されたロケーション及び前記2次元投影画像内の前記対象の表現のロケーションに基づいて、前記位置合わせパラメータを決定する、請求項2に記載の位置合わせシステム。
  4. 前記追跡装置は、前記対象の3次元ロケーションを追跡し、
    前記位置合わせユニットは、前記2次元投影画像を生成するために前記イメージング装置によって使用される投影ジオメトリを考慮して前記対象の追跡された3次元ロケーションの2次元投影を計算するとともに、前記追跡装置によって規定される座標系と前記イメージング装置によって規定される座標系との間の空間変換を計算することによって、前記位置合わせパラメータを決定し、前記空間変換が、前記対象の前記追跡された3次元ロケーションの計算された2次元投影と、前記2次元投影画像における前記対象の表現のロケーションとの間の偏差を最小にする、請求項2に記載の位置合わせシステム。
  5. 前記追跡装置は、光学形状センシングによって前記対象のロケーションを追跡し、
    前記位置合わせユニットは、前記光学形状センシングによって追跡される前記イメージング装置の視野内の前記対象のロケーション及び前記画像内の対象の表現のロケーションに基づいて、前記位置合わせパラメータを決定する、請求項1に記載の位置合わせシステム。
  6. 前記位置合わせシステムは、ユーザに対する支援を提供し、前記支援は、(1)全体の画像より小さいROIを規定すること、(2)アルゴリズムの結果から前記対象のセグメントを選択すること、又は(3)アルゴリズムにより要求される位置に前記対象を位置付けること、のうち少なくとも1つを含む、請求項1に記載の位置合わせシステム。
  7. 前記対象検出ユニットは、前記画像の画像値に基づいて前記画像内の対象のロケーションを示すロケーション情報を決定し、前記加えられたマーカ及び前記ロケーション情報に基づいて、前記画像内に前記対象の表現を提供する、請求項6に記載の位置合わせシステム。
  8. 前記対象検出ユニットは、前記ロケーション情報に依存して前記加えられたマーカの位置を補正し及び前記マーカの補正された位置に基づいて前記画像に前記対象の表現を提供することによって、前記画像内に前記対象の表現を提供する、請求項7に記載の位置合わせシステム。
  9. 前記イメージング装置は、それぞれ異なる投影方向に対応する少なくとも2つの2次元投影画像を提供し、
    前記対象検出ユニットは、a)前記2次元投影画像のうち第1の画像内の対象を示すために、ユーザがマーカを前記第1の画像に加えることを可能にし、b)前記加えられたマーカに基づいて前記第1の画像内に前記対象の第1の表現を提供し、前記2次元投影画像のうち第2の画像の画像値に基づいて前記第2の画像内に前記対象の第2の表現を提供し、
    前記位置合わせユニットは、前記視野内の前記対象の追跡されたロケーション並びに前記第1及び前記第2の画像内の前記対象の前記第1及び第2の表現のロケーションに基づいて、前記位置合わせパラメータを決定する、請求項1に記載の位置合わせシステム。
  10. 対象をイメージングするイメージングシステムであって、
    関心領域の画像を生成するイメージング装置と、
    前記対象の位置及び形状を決定することにより前記関心領域内の前記対象のロケーションを追跡する追跡装置と、
    位置合わせパラメータを決定する、請求項1に記載の位置合わせシステムと、
    前記対象の追跡されたロケーション及び前記決定された位置合わせパラメータに基づいて、前記関心領域の画像内の前記対象のロケーションを決定するロケーション決定ユニットと、
    を有する、イメージングシステム。
  11. 介入プロシージャを実施するための介入器具と、関介入器具をイメージングするための請求項10に記載のイメージングシステムと、を有する介入システム。
  12. 対象の画像を生成するイメージング装置と、前記対象の位置及び形状を決定することによって前記イメージング装置の視野内の前記対象のロケーションを追跡する追跡装置と、を位置合わせする位置合わせ方法であって、
    対象検出ユニットによって前記画像内の対象を検出するステップであって、前記対象検出ユニットが、a)前記対象が位置する前記画像内の任意の位置を示すために、ユーザがマーカを前記画像に加えることを可能にし、b)前記加えられたマーカに基づいて、前記画像内に前記対象の表現を提供する、ことを含むステップと、
    位置合わせユニットによって前記イメージング装置と前記追跡装置の位置合わせを規定する位置合わせパラメータを決定するステップであって、前記位置合わせユニットが、前記イメージング装置の視野内の前記対象の追跡されたロケーション及び前記画像内の前記対象の表現のロケーションに基づいて、前記位置合わせパラメータを決定する、ことを含むステップと、
    を含む位置合わせ方法。
  13. 対象をイメージングするイメージング方法であって、
    イメージング装置によって、関心領域の画像を生成するステップと、
    追跡装置によって、前記対象の位置及び形状を決定することにより前記関心領域内の対象のロケーションを追跡するステップと、
    請求項12に記載の位置合わせ方法によって、位置合わせパラメータを決定するステップと、
    ロケーション画像生成ユニットによって、前記対象の追跡されたロケーション、前記関心領域の画像、及び前記決定された位置合わせパラメータに基づいて、前記関心領域の画像内の前記対象のロケーションを示すロケーション画像を生成するステップと、
    を含む、イメージング方法。
  14. 対象の画像を生成するイメージング装置と、前記対象の位置及び形状を決定することによって前記イメージング装置の視野内の前記対象のロケーションを追跡する追跡装置と、を位置合わせするための位置合わせコンピュータプログラムであって、前記位置合わせコンピュータプログラムが請求項1に記載の位置合わせシステムを制御するコンピュータ上でランされるとき、前記位置合わせシステムに、請求項12に記載の位置合わせ方法の各ステップを実行させるプログラムコード手段を有する位置合わせコンピュータプログラム。
  15. 対象をイメージングするためのイメージングコンピュータプログラムであって、前記イメージングコンピュータプログラムが請求項10に記載のイメージングシステムを制御するコンピュータ上でランされるとき、前記イメージングシステムに、請求項13に記載のイメージング方法の各ステップを実行させるプログラムコード手段を有するイメージングコンピュータプログラム。
JP2016528387A 2013-07-23 2014-07-01 イメージング装置を追跡装置と位置合わせする位置合わせシステム、イメージングシステム、介入システム、位置合わせ方法、イメージングシステムの作動方法、位置合わせコンピュータプログラム、及びイメージングコンピュータプログラム Active JP6511050B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP13177524.9 2013-07-23
EP13177524 2013-07-23
PCT/EP2014/063904 WO2015010859A1 (en) 2013-07-23 2014-07-01 Registration system for registering an imaging device with a tracking device

Publications (3)

Publication Number Publication Date
JP2016525000A true JP2016525000A (ja) 2016-08-22
JP2016525000A5 JP2016525000A5 (ja) 2017-08-03
JP6511050B2 JP6511050B2 (ja) 2019-05-08

Family

ID=48856518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016528387A Active JP6511050B2 (ja) 2013-07-23 2014-07-01 イメージング装置を追跡装置と位置合わせする位置合わせシステム、イメージングシステム、介入システム、位置合わせ方法、イメージングシステムの作動方法、位置合わせコンピュータプログラム、及びイメージングコンピュータプログラム

Country Status (5)

Country Link
US (1) US10762380B2 (ja)
EP (1) EP3025304B1 (ja)
JP (1) JP6511050B2 (ja)
CN (1) CN105408939B (ja)
WO (1) WO2015010859A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500692A (ja) * 2015-12-18 2019-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 線形画像特徴に対する改良されたマーカー配置のための画像処理
JP2022517309A (ja) * 2019-01-21 2022-03-08 コーニンクレッカ フィリップス エヌ ヴェ 対象内での挿入要素の移動の補助

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10105117B2 (en) * 2015-02-13 2018-10-23 Biosense Webster (Israel) Ltd. Compensation for heart movement using coronary sinus catheter images
EP3413829B1 (en) * 2016-02-12 2024-05-22 Intuitive Surgical Operations, Inc. Systems of pose estimation and calibration of perspective imaging system in image guided surgery
CN109982656B (zh) 2016-06-30 2022-04-08 皇家飞利浦有限公司 采用光学位置感测的医学导航系统及其操作方法
DE102016117889B3 (de) * 2016-09-22 2018-03-15 Tomtec Imaging Systems Gmbh Verfahren und Vorrichtung zur Korrektur von durch Tracking-Verfahren ermittelten dynamischen Modellen
BR112019009359A2 (pt) * 2016-12-15 2019-08-06 Novartis Ag registro de imagem adaptativa para cirurgia oftál-mica
CN108245244B (zh) * 2016-12-28 2019-12-13 中国科学院深圳先进技术研究院 一种射频消融的方法及装置
WO2018129532A1 (en) * 2017-01-09 2018-07-12 Intuitive Surgical Operations, Inc. Systems and methods for registering elongate devices to three dimensional images in image-guided procedures
EP3376960B1 (en) * 2017-01-24 2019-03-27 Brainlab AG Determining rotational orientation of a deep brain stimulation electrode in a three-dimensional image
US10430641B2 (en) * 2017-03-08 2019-10-01 GM Global Technology Operations LLC Methods and systems for object tracking using bounding boxes
EP3385747B1 (en) * 2017-04-05 2021-03-31 Axis AB Method, device and system for mapping position detections to a graphical representation
US20170209225A1 (en) * 2017-04-10 2017-07-27 Danling Wu Stereotactic medical procedure using sequential references and system thereof
CN107123110A (zh) * 2017-04-13 2017-09-01 青岛海信医疗设备股份有限公司 胸壁线检测方法及装置
CN107392843B (zh) * 2017-07-21 2021-05-07 上海联影医疗科技股份有限公司 一种图像处理的方法、装置及系统
EP3542747A1 (en) 2018-03-22 2019-09-25 Koninklijke Philips N.V. Visualization system for visualizing an alignment accuracy
JP7078487B2 (ja) * 2018-08-02 2022-05-31 富士フイルムヘルスケア株式会社 超音波診断装置及び超音波画像処理方法
US11972583B2 (en) * 2019-01-31 2024-04-30 Bgi Shenzhen Fluorescence image registration method, gene sequencing instrument, and storage medium
JP7440534B2 (ja) * 2019-04-04 2024-02-28 センターライン バイオメディカル,インコーポレイテッド 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション
EP3839890A1 (en) * 2019-12-17 2021-06-23 Metamorphosis GmbH Determining relative 3d positions and orientations between objects in 2d medical images
CN111784751B (zh) * 2020-06-16 2022-12-02 北京理工大学 基于3d/2d配准的导丝3d模拟跟踪方法及装置
EP3944809A1 (en) * 2020-07-28 2022-02-02 Koninklijke Philips N.V. Arrangement and method for determining the position of an invasive device
DE102020213035A1 (de) * 2020-10-15 2022-04-21 Siemens Healthcare Gmbh Verfahren zur Ansteuerung eines Röntgengerätes und medizinisches System
EP4494592A1 (en) 2023-07-17 2025-01-22 Koninklijke Philips N.V. Registration of an imaging device with a sensing device
DE102023208900B3 (de) 2023-09-13 2025-01-30 Siemens Healthineers Ag Verfahren zur Überwachung eines chirurgischen Eingriffs mit Röntgenbildgebung und medizinisches Röntgensystem
CN117974653B (zh) * 2024-03-29 2024-06-11 杭州脉流科技有限公司 基于医学影像的血管导丝跟踪方法、装置、设备和介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100056904A1 (en) * 2008-09-02 2010-03-04 Saunders John K Image guided intervention
JP2010115429A (ja) * 2008-11-14 2010-05-27 Toshiba Corp X線診断装置および画像処理装置
JP2010240253A (ja) * 2009-04-08 2010-10-28 Toshiba Corp X線診断装置
JP2012179272A (ja) * 2011-03-02 2012-09-20 Fujifilm Corp 画像診断支援装置およびその動作方法、並びに画像診断支援プログラム
WO2013001388A1 (en) * 2011-06-27 2013-01-03 Koninklijke Philips Electronics N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7747312B2 (en) * 2000-01-04 2010-06-29 George Mason Intellectual Properties, Inc. System and method for automatic shape registration and instrument tracking
US6950532B1 (en) * 2000-04-24 2005-09-27 Cinea Inc. Visual copyright protection
US7043019B2 (en) * 2001-02-28 2006-05-09 Eastman Kodak Company Copy protection for digital motion picture image data
US7221759B2 (en) * 2003-03-27 2007-05-22 Eastman Kodak Company Projector with enhanced security camcorder defeat
DE10325003A1 (de) * 2003-06-03 2004-12-30 Siemens Ag Visualisierung von 2D/ 3D-fusionierten Bilddaten für die Katheterangiografie
US7006630B2 (en) * 2003-06-03 2006-02-28 Matsushita Electric Industrial Co., Ltd. Methods and apparatus for digital content protection
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US7781724B2 (en) * 2004-07-16 2010-08-24 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
WO2006078678A2 (en) * 2005-01-18 2006-07-27 Traxtal Inc. Method and apparatus for guiding an instrument to a target in the lung
US7713205B2 (en) * 2005-06-29 2010-05-11 Accuray Incorporated Dynamic tracking of soft tissue targets with ultrasound images, without using fiducial markers
CN101449292B (zh) * 2006-05-24 2012-07-04 皇家飞利浦电子股份有限公司 坐标系配准
US8050482B2 (en) * 2006-09-28 2011-11-01 Siemens Medical Solutions Usa, Inc. System and method for online optimization of guidewire visibility in fluoroscopic systems
US8098914B2 (en) * 2007-03-05 2012-01-17 Siemens Aktiengesellschaft Registration of CT volumes with fluoroscopic images
US8150494B2 (en) * 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
JP5275340B2 (ja) * 2007-05-08 2013-08-28 シー・アール・バード・インコーポレーテッド 多電極位置データを用いた迅速な3dマッピング
IL184151A0 (en) * 2007-06-21 2007-10-31 Diagnostica Imaging Software Ltd X-ray measurement method
EP2187830A1 (en) * 2007-08-14 2010-05-26 Hansen Medical, Inc. Robotic instrument systems and methods utilizing optical fiber sensor
US8423121B2 (en) * 2008-08-11 2013-04-16 Siemens Aktiengesellschaft Method and system for guidewire tracking in fluoroscopic image sequences
US8737708B2 (en) * 2009-05-13 2014-05-27 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8731642B2 (en) * 2009-11-08 2014-05-20 Paieon Inc. Apparatus and method for locating a device tip within a volume
US8526691B2 (en) * 2010-06-09 2013-09-03 Siemens Aktiengesellschaft System and method for passive medical device navigation under real-time MRI guidance
US20120150025A1 (en) 2010-09-21 2012-06-14 Siemens Corporation Image Registration Using Interventional Devices
US8666477B2 (en) * 2011-03-07 2014-03-04 Siemens Aktiengesellschaft Method and system for tracking of a virtual electrode on a coronary sinus catheter in fluoroscopic images
US10376179B2 (en) 2011-04-21 2019-08-13 Koninklijke Philips N.V. MPR slice selection for visualization of catheter in three-dimensional ultrasound
CN103781418B (zh) * 2011-08-16 2016-03-02 皇家飞利浦有限公司 使用光纤形状数据的曲面多平面重建
US9220467B2 (en) * 2011-09-19 2015-12-29 Siemens Aktiengesellschaft Method and system for tracking catheters in 2D X-ray fluoroscopy using a graphics processing unit
WO2013057620A1 (en) * 2011-10-20 2013-04-25 Koninklijke Philips Electronics N.V. Shape sensing assisted medical procedure
WO2013071437A1 (en) * 2011-11-15 2013-05-23 Macdonald Dettwiler & Associates Inc. Method of real-time tracking of moving/flexible surfaces
CA2870480A1 (en) * 2012-04-13 2013-10-17 Lightcraft Technology Llc Hybrid precision tracking
JP6216770B2 (ja) * 2012-04-23 2017-10-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 形状検知によるアーティファクト除去
CA2873035A1 (en) * 2012-05-08 2013-11-14 Angiometrix Corporation Systems for linear mapping of lumens
US9014564B2 (en) * 2012-09-24 2015-04-21 Intel Corporation Light receiver position determination
BR112015006948B1 (pt) * 2012-10-01 2021-06-29 Koninklijke Philips N.V. Sistema para registrar um sistema de coordenadas de um sistema de detecção de formato, método para registrar um sistema de coordenadas de um sistema de detecção de formato
US9341014B2 (en) * 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
US9608727B2 (en) * 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9460510B2 (en) * 2013-03-29 2016-10-04 Siemens Medical Solutions Usa, Inc. Synchronized navigation of medical images
US10307079B2 (en) * 2014-01-27 2019-06-04 Edda Technology, Inc. Method and system for surgical instrument guidance and tracking with position and orientation correction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100056904A1 (en) * 2008-09-02 2010-03-04 Saunders John K Image guided intervention
JP2010115429A (ja) * 2008-11-14 2010-05-27 Toshiba Corp X線診断装置および画像処理装置
JP2010240253A (ja) * 2009-04-08 2010-10-28 Toshiba Corp X線診断装置
JP2012179272A (ja) * 2011-03-02 2012-09-20 Fujifilm Corp 画像診断支援装置およびその動作方法、並びに画像診断支援プログラム
WO2013001388A1 (en) * 2011-06-27 2013-01-03 Koninklijke Philips Electronics N.V. Live 3d angiogram using registration of a surgical tool curve to an x-ray image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019500692A (ja) * 2015-12-18 2019-01-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 線形画像特徴に対する改良されたマーカー配置のための画像処理
JP2022517309A (ja) * 2019-01-21 2022-03-08 コーニンクレッカ フィリップス エヌ ヴェ 対象内での挿入要素の移動の補助
JP7561312B2 (ja) 2019-01-21 2024-10-04 コーニンクレッカ フィリップス エヌ ヴェ 対象内での挿入要素の移動の補助

Also Published As

Publication number Publication date
US20160171714A1 (en) 2016-06-16
CN105408939B (zh) 2021-08-24
JP6511050B2 (ja) 2019-05-08
WO2015010859A1 (en) 2015-01-29
EP3025304A1 (en) 2016-06-01
EP3025304B1 (en) 2021-09-08
US10762380B2 (en) 2020-09-01
CN105408939A (zh) 2016-03-16

Similar Documents

Publication Publication Date Title
JP6511050B2 (ja) イメージング装置を追跡装置と位置合わせする位置合わせシステム、イメージングシステム、介入システム、位置合わせ方法、イメージングシステムの作動方法、位置合わせコンピュータプログラム、及びイメージングコンピュータプログラム
JP7322039B2 (ja) 撮像デバイスのポーズ推定、およびターゲットに対する医療デバイスの位置を判定するためのシステムおよび方法
EP3224804B1 (en) Apparatus for determining positions of an interventional instrument in a projection image
US20150223902A1 (en) Navigation with 3d localization using 2d images
CN102598088A (zh) 规划和执行穿刺程序的系统及方法
AU2015238800B2 (en) Real-time simulation of fluoroscopic images
EP3079622B1 (en) Radiation-free registration of an optical shape sensing system to an imaging system
US12089981B2 (en) Interventional system
CN114746901A (zh) 图像与跟踪系统的配准
EP2940657A1 (en) Regression for periodic phase-dependent modeling in angiography
EP3855396A2 (en) Orientation detection in fluoroscopic images
US20160253804A1 (en) Assisting apparatus for assisting in registering an imaging device with a position and shape determination device
US9754372B2 (en) Marking of fluoroscope field-of-view
JP7356714B2 (ja) 画像処理装置と画像処理プログラムと画像処理方法
US20240307122A1 (en) Apparatus and methods for use with image-guided skeletal procedures
WO2025016700A1 (en) Registration of an imaging device with a sensing device

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170623

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180403

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190405

R150 Certificate of patent or registration of utility model

Ref document number: 6511050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250