JP2014507235A - ナビゲーションガイダンスのための視覚化 - Google Patents

ナビゲーションガイダンスのための視覚化 Download PDF

Info

Publication number
JP2014507235A
JP2014507235A JP2013555980A JP2013555980A JP2014507235A JP 2014507235 A JP2014507235 A JP 2014507235A JP 2013555980 A JP2013555980 A JP 2013555980A JP 2013555980 A JP2013555980 A JP 2013555980A JP 2014507235 A JP2014507235 A JP 2014507235A
Authority
JP
Japan
Prior art keywords
interest
data
spatial
navigation
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013555980A
Other languages
English (en)
Other versions
JP6166663B2 (ja
Inventor
マンツクェ,ローベルト
エティンジェ,パトリック
イヴ フランソワーズ カティエ,パスカル
フランソワーズ ヴィラン,ニコラス
ラッシュ,ヴォルカー
シン ロード,カワルディープ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kings College London
Original Assignee
Kings College London
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kings College London filed Critical Kings College London
Publication of JP2014507235A publication Critical patent/JP2014507235A/ja
Application granted granted Critical
Publication of JP6166663B2 publication Critical patent/JP6166663B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/488Diagnostic techniques involving pre-scan acquisition

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Cardiology (AREA)
  • Dentistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明は、対象の情報を視覚化することに関する。有効な知覚可能性を確保しながらユーザへ状況特有のデータに加えて空間情報を提供するために、方法(110)は、a)空間幾何学的データ(116)と空間幾何学的データに対応する機能パラメータ面(118)とを含む対象(22)の関心領域のナビゲーション前データ(114)を供給するステップ(112)と、b)関心領域のライブ画像データ(122)を取得するステップ(120)と、c)ライブ画像データにおいて要素(126)を検出するステップ(124)と、d)ナビゲーション前データとライブ画像データとの空間的関係(130)を決定するステップ(132)と、e)先に検出された要素の位置(134)を空間的関係に基づき空間幾何学的データにおいて決定し(132)、機能パラメータ面における所定の関連するロケーション点(138)を計算する(136)ステップと、f)機能パラメータ面の視覚化に基づく関心領域の簡単化された表面表示(144)と先に計算された所定の関連するロケーション点を示すマーカ(146)との組み合わせ(142)を生成するステップ(140)と、g)その組み合わせをナビゲーションガイダンス(150)として表示するステップ(148)とを有する。

Description

本発明は、対象の情報を視覚化すること、特に、関心のある対象の情報を視覚化する方法、視覚化する装置、視覚化する画像診断システム、並びにコンピュータプログラム及びコンピュータ読取可能媒体に関する。
対象(例えば、患者)の状況に関する情報を視覚化するよう、2次元ライブ画像を術前画像にオーバーレイすることが知られている。術前画像データは、例えば血管構造に関する情報を含み、一方、2次元ライブ画像は、現在の状況に関する情報を提供する。例えば、国際公開第2008/107814(A1)号明細書(特許文献1)では、そのような情報をユーザに提供する方法が記載されている。しかし、そのようにして与えられる情報は、例えば心臓血管インターベンショナルガイダンスのための、限られた情報しか提供しない。しかし、例えばインターベンショナル心臓血管プロシージャのための、特に、心臓電気生理学におけるアブレーション及び装置埋込のような複雑なプロシージャのための、新しい試験及び治療プロシージャの発展に伴って、提供される情報に対する需要は常に増えている。
国際公開第2008/107814(A1)号明細書
よって、高められた知覚可能性を確保しながらユーザへ状況特有のデータに加えて空間情報を提供する必要性が存在する。
本発明では、それは、独立請求項において請求される発明によって解消され、更なる実施形態は従属請求項において組み込まれている。
以下で記載される本発明の態様は、関心のある対象の情報を視覚化する装置、関心のある対象の情報を視覚化する画像診断システム、コンピュータプログラム、及びコンピュータ読取可能媒体にも適用されることに留意すべきである。
本発明の実施例に従って、関心のある対象の情報を視覚化する方法であって:
a)空間幾何学的データと該空間幾何学的データに対応する機能パラメータ面とを含む、対象の関心領域のナビゲーション前データを供給するステップ;
b)前記関心領域のライブ画像データを取得するステップ;
c)前記ライブ画像データにおいて要素を検出するステップ;
d)前記ナビゲーション前データと前記ライブ画像データとの空間的関係を決定するステップ;
e)前記空間的関係に基づき前記空間幾何学的データにおいて前記検出された要素の位置を決定し、前記機能パラメータ面における所定の関連するロケーション点を計算するステップ;
f)前記機能パラメータ面の視覚化に基づく前記関心領域の簡単化された表面表示と、前記計算された所定の関連するロケーション点を示すマーカとの組み合わせを生成するステップ;及び
g)前記組み合わせをナビゲーションガイダンスとして表示するステップ
を有する方法が提供される。
本発明の更なる実施例に従って、処理部、インターフェース部及び表示部を有する装置が提供される。
前記インターフェース部は、空間幾何学的データと該空間幾何学的データに対応する機能パラメータ面とを含む、対象の関心領域のナビゲーション前データを供給するよう構成される。前記インターフェース部は更に、前記関心領域のライブ画像データを供給するよう構成される。
前記処理部は、前記ライブ画像データにおいて要素を検出するよう構成される。前記処理部は更に、前記ナビゲーション前データと前記ライブ画像データとの空間的関係を決定するよう構成される。前記処理部はまた、前記空間的関係に基づき前記空間幾何学的データにおいて前記検出された要素の位置を決定し、且つ、前記機能パラメータ面における所定の関連するロケーション点を計算するよう構成される。前記処理部はまた更に、前記機能パラメータ面の視覚化に基づく前記関心領域の簡単化された表面表示と、前記計算された所定の関連するロケーション点を示すマーカとの組み合わせを生成するよう構成される。
前記表示部は、前記組み合わせをナビゲーションガイダンスとして表示するよう構成される。
本発明の更なる実施例に従って、関心のある対象の情報を視覚化する画像診断システムであって、上記の実施例に従う装置と、画像取得手段とを有する画像診断システムが提供される。前記画像取得手段は、前記ライブ画像データを取得するよう構成される。
空間情報及び機能情報の両方を提供することが本発明の要点として考えられ得る。いずれのタイプの情報も、ナビゲーションガイダンスの形で1つの画像において提供される。ユーザの側で複雑な想像力を必要としない速やかな理解を可能にするよう、簡単化された表面表示が選択され、該表示において機能パラメータ面は視覚化され、マーカは現在の状況に関する空間情報を提供する。
本発明のそれらの及び他の態様は、後述される実施例から明らかになり、それらを参照して説明される。
本発明の実施例に従う装置を備える画像診断システムを表す。 本発明の実施例の基本ステップを概略的に表す。 更なる実施例の方法ステップを示す。 更なる実施例の方法ステップを示す。 更なる実施例の方法ステップを示す。 更なる実施例の方法ステップを示す。 更なる実施例の方法ステップを示す。 更なる実施例の方法ステップを示す。 本発明の更なる実施例を概略的に記載する。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。 本発明に従ってユーザへ提供されるナビゲーションガイダンスの実施例を示す。
本発明の実施例について、図面を参照して記載する。
図1は、例えば循環器系ラボラトリで使用される画像診断システム10を概略的に示す。関心のある対象の情報を視覚化する画像診断システム10は、画像取得手段12を有する。例えば、画像取得手段12は、X線ビーム16によって示されているX線放射を生成するようX線放射源14を設けられたX線画像取得手段である。更に、X線画像検出モジュール18が、X線放射源14に対向して配置され、それにより、放射プロシージャの間、対象(例えば、患者20)は、X線放射源14と検出モジュール18との間に位置付けられ得る。更に、テーブル22が、試験される対象(例えば、患者20)を受容するよう設けられる。
図示されていないが、他の実施例に従って、画像診断システム10は、超音波画像取得手段の形で画像取得手段12を有する。当然、超音波画像取得手段の場合には、X線放射源14、X線ビーム16、及び画像検出モジュール18は、超音波を対象(例えば、患者20)に放射し、反射された超音波を受ける超音波トランスデューサによって置換される。
更なる実施例に従って、画像取得手段12は、MR(磁気共鳴画像化(Magnetic Resonance Imaging)MRI)又はNMRI(核磁気共鳴画像化(Nuclear Magnetic Resonance Imaging))によって空間幾何学的データを取得する。当然、SPECT(単光子放出型コンピュータ断層撮影(Single Photon Emission Computed Tomography))又はPET(陽電子放出型断層撮影(Positron Emission Tomography))等の他の核画像化も実施例において提供される(図示せず。)。
更に、図1の画像診断システム10は、対象の情報を視覚化する装置24を有する。装置24は、処理部26、インターフェース部28及び表示部30を有する。
インターフェース部28は、対象の関心領域のナビゲーション前データを供給するよう構成される。ナビゲーション前データは、空間幾何学的データと、空間幾何学的データに対応する機能パラメータ面とを含む。インターフェース部28は更に、関心領域のライブ画像データを供給するよう構成される。
処理部26は、ライブ画像データにおいて要素を検出するよう構成される。処理部26はまた、ナビゲーション前データとライブ画像データとの空間的関係を決定するよう構成される。処理部26はまた、決定された空間的関係に基づき、先に検出された要素の位置を空間幾何学的データにおいて決定するとともに、機能パラメータ面における所定の関連するロケーション点を計算するよう構成される。処理部26はまた更に、機能パラメータ面の視覚化に基づく関心領域の簡単化された表面表示と、先に計算された所定の関連するロケーション点を示すマーカとの組み合わせを生成するよう構成される。
表示部30は、生成された組み合わせをナビゲーションガイダンスとして表示するよう構成される。
更に、取得手段12は、ライブ画像データを取得するよう構成される。
取得されたライブ画像データは、次いで、インターフェース部28へ与えられる。これは、第1の接続線32によって示されている。インターフェース部28は、次いで、ライブ画像データを処理部26へ供給する。これは、第2の接続線34によって示されている。生成された組み合わせは、処理部26によって表示部30へ供給される。これは、第3の接続線36によって示されている。当然、上記の各部及び各手段の間のデータ接続は無線接続によっても実現可能である。
示されている例は所謂CT画像取得装置であることが知られる。当然、本発明はまた、図1に示されている円形のガントリに代えてC型アームを備えたCアーム型X線画像取得装置のような他のタイプのX線画像取得手段に係る。
本発明に従うプロシージャについて、図2を参照して以下でより詳細に記載する。
最初に、供給ステップ112で、対象20の関心領域のナビゲーション前データ114が供給される。ナビゲーション前データ114は、空間幾何学的データ116と、空間幾何学的データ116に対応する機能パラメータ面118とを含む。ここで、語“対応”とは空間対応をいう。
更に、取得ステップ120で、関心領域のライブ画像データ122が取得される。
検出ステップ124で、ライブ画像における要素126が検出される。
更に、決定ステップ128で、ナビゲーション前データ114とライブ画像データ122との空間的関係130が決定される。
他のステップで、サブステップとして決定ステップ132が設けられ、空間幾何学的データ116における検出された要素の位置134が決定される。この決定は、空間的関係130に基づく。更に、計算サブステップ136で、機能パラメータ面118における所定の関連するロケーション点138が計算される。
次いで、生成ステップ140で、関心領域の簡単化された表面表示144とマーカ146との組み合わせ142が生成される。簡単化された表面表示144は、機能パラメータ面118の視覚化に基づく。マーカ146は、先に計算された所定の関連するロケーション点138を示す。
表示ステップ148で、生成された組み合わせがナビゲーションガイダンス150として表示される。
図2における上記のステップは、単に例となるステップ順序において示されているにすぎないことが知られる。当然、他のステップ順序も可能である。例えば、ステップd)(決定ステップ128)はステップc)(検出ステップ124)の前に実行される。また更に、ステップa)及びb)(供給ステップ112及び取得ステップ120)は、予めもう一方に登録されている画像データを供給する。そのような場合に、ステップd)(決定ステップ128)において見られるような空間的関係130の決定はもはや必要ではない。
更なる態様に従って、ステップは、所定の時間速度を有して連続的に繰り返されてよい。
上述されたように、空間幾何学的データ116は、コンピュータ断層撮影(CT)によって取得されてよい。
他の態様に従って、空間幾何学的データ116は、超音波によって取得される。
更なる態様に従って、空間幾何学的データ116は、磁気共鳴画像化(MRI)又は核磁気共鳴画像化(NMRI)によって取得される。空間幾何学的データ116はまた、単光子放出型コンピュータ断層撮影(SPECT)又は陽電子放出型断層撮影(PET)等の核画像化によって取得されてもよい。
更なる態様に従って、空間幾何学的データ116は、関心領域に関する3次元情報、すなわちボリューム情報を含む。
更なる態様に従って、空間幾何学的データ116はまた、時間情報を含む。言い換えると、空間幾何学的データ116として、3D+t画像データ又は4D画像データが供給される。
本発明の態様に従って、機能パラメータ面118は、以下で図示及び記載されるブルズアイビュー(bull’s-eye view)を有する。
更なる態様に従って、機能パラメータ面118は、3次元メッシュビューを有する。
更なる態様に従って、機能パラメータ面118は、対象(すなわち、患者)の解剖学的位置を表す。
更なる態様に従って、機能パラメータ面118は、空間幾何学的データ116と既知の空間的関係にある。
例えば、空間幾何学的データ116及び機能パラメータ面118を登録するために、同じ画像診断法が、空間幾何学的データ116及び機能パラメータ面118を取得するために使用される。
本発明の他の態様に従って、様々な画像診断法が、空間幾何学的データ116及び機能パラメータ面118を取得するために使用される。
本発明を記載することに関連して、供給ステップ112はステップa)とも呼ばれ、取得ステップ120はステップb)とも呼ばれ、検出ステップ124はステップc)とも呼ばれ、決定ステップ128はステップd)とも呼ばれ、決定ステップ132はステップe)とも呼ばれ、生成ステップ140はステップf)とも呼ばれ、表示ステップ148はステップg)とも呼ばれることが知られる。
本発明の更なる態様に従って、関心のある対象は、管状構造(例えば、血管構造)を有する。例えば、研究の活動領域は、進歩的なガイダンス方法又はインターベンショナル心臓血管プロシージャである。特に、心臓電気生理学(cardiac electrophysiology)(EP)におけるアブレーション及び装置埋込のような複雑なプロシージャのために、本発明に従って、予備手続的イメージング情報が登録され、インターベンショナルX線画像にオーバーレイされ得る。
本発明の態様に従って、要素(例えば、カテーテル、ガイドワイヤ又はリード)の場所は、アブレーション又はペーサーリード配置のためのターゲットゾーンに関して視覚化される。
更なる態様に従って、供給ステップ112の機能パラメータ面118及び空間幾何学的データ116は夫々、取得ステップ120のライブ画像データ122に登録される。これは、第1の矢印152及び第2の矢印154によって示されている(図3)。2種類のデータを登録するステップは更に、第1の矢印152及び第2の矢印154にオーバーレイされているボックスによって示されている。この箱は、参照符号156を付されて破線により表されている。
本発明の態様に従って、心臓検査のために、機能パラメータ面118の機能パラメータは、例えば、傷の場所及び負担、機械機能、電気的活性化、かん流/生存率又は他を含むグループの中の少なくとも1つ又はそれらの組み合わせを有する。機能パラメータはまた、それらから計算されるパラメータの何らかの組み合わせを有することができる。
要素126がライブ画像データ122において検出される一方、更なる態様に従って、要素126は空間幾何学的データ116において可視的であってもよい。
ステップb)に関して、本発明の態様に従って、ライブ画像データ122は2次元画像データ、例えば2次元透視画像を有する。
更なる態様に従って、ライブ画像データ122はまた、空間幾何学的データを有する。
ステップc)に関して、検出124は、ステップb)で取得されたライブ画像のシーケンスにおいて要素を追跡することを含む。
本発明の態様に従って、要素126は、関心領域のサブボリューム内で(例えば、血管樹のような管状構造内で)動くよう強いられる。これは、サブボリュームが、例えば画像解析によって、取得されたライブ画像データにおいて提供されるような場合に、要素126が例えば血管樹としてのそのようなボリューム内にのみ位置付けられ得るという利点を提供する。これは、要素の検出の改善をもたらす。
ステップd)に関して、決定128は、空間幾何学的データ116へのライブ画像データにおける要素の投射マッピング158を含んでよい。これは、ステップb)からステップa)への、すなわち、取得ボックス120から供給ボックス112への矢印160と、破線で示されたマッピングボックス158とによって示されている(図4)。
更なる態様に従って、ステップd)は、空間幾何学的データ116及びライブ画像データ122を登録することを含む。
更なる態様に従って、ステップd)は、ライブ画像データ122において決定され且つ空間幾何学的データ116において決定された少なくとも3つのマーカ点に基づく2D−3D登録を含む(図示せず。)。
更なる態様に従って、ステップd)は、画像強度に基づく登録を含む。
更なる態様に従って、空間的関係130を決定するステップd)は、要素126の位置決めを含む。
例えば、空間的関係130は、要素126を登録することに基づく。
更なる態様に従って、空間的関係130は、ランドマークを登録することに基づく。
例えば、空間的関係130はまた、空間幾何学的データ116及びライブ画像データ122を取得するための同じ画像診断法を用いることによって達成されてもよい。
更なる態様に従って、ステップd)は、ずれを補正すること、例えば、呼吸又は心臓動作の補償を含む。
更なる態様に従って、空間幾何学的データ116が時間情報も含む場合に、空間的関係130を決定するために、更には図示されないが、時空間的関係が決定される。
ステップe)に関して、更なる態様に従って、所定の関係がユーザによって予め設定されてよい。
更なる態様に従って、この所定の関係は少なくとも1つのパラメータを含む。
本発明の実施例に従って、所定の関連するロケーション点は、最近点である。
図5に示される更なる実施例に従って、ステップc)における要素126の決定は、ライブ画像データ122において要素126の2次元位置164を決定することを含み、ステップe)において位置134を決定するために、検出された2次元位置164は、直射ライン168によって空間幾何学的データ116へマッピングされる(166)。
更なる態様に従って、位置134を決定するために、空間パラメータが取得手段によって供給される。例えば、空間パラメータは、電磁局在性によって又は、異なった観測面を有する1又は2の2次元画像により、与えられる。
更なる態様に従って、ステップe)は、ずれを補正すること、例えば、呼吸又は心臓動作の補償を含む。
図6に示される更なる実施例に従って、ステップe)は、要素126の空間位置172を推定するよう、空間幾何学的データ116における追跡された位置の逆投射170を含む。
例となる態様に従って、これは、逆投射ボックス170に出入りする2つの矢印174a及び174bによって示されるループ態様において実行され得る。
本発明の実施例に従って、逆投射が空間幾何学的データ116に従って生体構造と交差しない場合に、生体構造における最も近い又は統計的に最もありそうな点が使用される(図示せず。)。
更なる実施例に従って、簡単化された表面表示144は、展開マップ画像である(展開マップ画像の例は以下で更に記載される。)。
更なる態様に従って、機能パラメータの視覚化は、機能画像データとも呼ばれる。
更なる態様に従って、組み合わせ142を生成するために、空間幾何学的データ116の3次元画像表示及び決定された3次元位置が平面表示へ前方向にマッピングされる(以下参照)。
更なる態様に従って、表示は、2つの幾何学的次元の他の更なる次元としてカラーコーディング情報を有する2次元マップを含む。
本発明の更なる実施例に従って、空間幾何学的データ116における先に検出された要素126から機能パラメータ面118における先に計算された関連するロケーション点138への投射軸が与えられる。更に、簡単化された表面表示144は、3次元画像であり、その3次元画像は、投射軸と整列される。
更なる態様に従って、ステップf)は、ステップe)の決定された位置134に基づき展開表示におけるマーカ位置を計算することを含む。
更なる態様に従って、表面表示は、パラメトリック曲面とも呼ばれる。
更なる態様に従って、展開2次元マップは、機能パラメータ面118の情報、例えば機能的メッシュをエンコードする。
更なる態様に従って、ステップf)は、セグメント化されたメッシュを生成することを含む。
本発明の更なる実施例に従って、上記の展開マップはブルズアイビューである(そのようなブルズアイビューの例として更に以下を参照されたい。)。
更なる態様に従って、簡単化された表面表示144は、例えば心臓血管インターベンションの場合における左心房の2次元面マップを有する。
本発明の更なる実施例に従って、ステップf)は、ナビゲーション生体構造を簡単化された表面表示144と結合することを含む。例えば、図7に示されるように、ステップf)は、ナビゲーション生体構造としてステップb)で与えられたライブ画像データ122を結合することを含む。図7で、これは、取得ボックス120から生成ボックス140への矢印176によって示されている。例えば、ナビゲーション生体構造は、透視2次元画像の形でライブ画像データを有する。
更なる実施例に従って、ナビゲーション生体構造は、血管構造の投射178を有する(図8)。
図8に示される態様に従って、投射178は、ステップa)で与えられる空間幾何学的データ116をセグメント化又はモデリングすることによって得られる(180)。これは、取得ステップ120のボックスからセグメント化又はモデリングステップ180への矢印181によって示されている。このようにして生成された、又は夫々計算された投射178は、次いで、生成ボックス140へ入力される。これは、ステップf)のボックスに入る矢印182によって示されている。
本発明の実施例に従って、ナビゲーションガイダンス150は、機能パラメータ面情報と、関心領域に関する要素の3次元位置決め情報とを含む2次元表示である。2次元表示の例については、以下を参照されたい。
本発明の態様に従って、ナビゲーションガイダンス150はまた、ナビゲーション前データ114が3D+t画像データを有する場合に、時間情報を提供する。
以下で、本発明の実施例は、図9を参照して記載される。画像の左部分では、対象の関心領域のナビゲーション前データ214が与えられている。ナビゲーション前データ214は空間幾何学的データ216を含む。すなわち、言い換えると、ナビゲーション前データ214は、関心領域の3次元画像データを有する。例えば、図9に示されている空間幾何学的データ216は、例えば心臓血管インターベンションにおいて、3次元の解剖学的情報を提供する。ナビゲーション前データ214はまた、空間幾何学的データ216に対応する機能パラメータ面218を含む。図9に示される実施例として、機能パラメータ面218は、機能的メッシュを有する。図に示すように、機能的メッシュは輪郭、すなわち生体構造の3次元形状をたどり、上述されたように機能パラメータに関する更なる情報を提供する。かかる機能パラメータは、例えば、カラーコーディングによって提供される。例えば、目標のエリアは緑で示され、一方、他の面は赤色で示される。当然、これはまた、異なるパターンによって達成されてもよい。
図9の右部分では、関心領域の遠近法の又はわずかに変形されたライブ画像データ222が、例えば2次元透視X線画像の形で、与えられている。透視画像222において、要素226は可視的であり、従って検出可能である。例えば、要素226は、例えば赤点によって示されるガイドワイヤ又はリード先端227を有するガイドワイヤである。コードライン225によって示されるように、要素226は図9において既に検出されている。
更に、ナビゲーション前データ214とライブ画像データ222との空間的関係も既に決定されている。次いで、先端227は、検出された要素226の位置224が空間幾何学的データ216において決定されるように、要素226の位置224として考えられる。2種類のデータの空間的関係が知られるので、決定はX線ジオメトリにおけるライン投射によって達成される。これは、空間幾何学的データ216の方向における先端位置224からの直接的矢印232によって示されている。点233によって示されるように、3次元におけるガイドワイヤの位置は、空間幾何学的データ216を表している限定的生体構造のメッシュに投射マッピングすることによって達成される。このようにして、検出された要素の位置が空間幾何学的データにおいて決定される。
更に、計算ステップで、機能パラメータ面における所定の関連するロケーション点が計算される。示されている例に従って、所定の関連するロケーション点は、点233によって示される検出されたリード位置に対する機能的メッシュ上の最近点238であってよい。この計算は矢印239によって示されている。
容易に知覚できる情報をユーザに提供することができるために、関心領域の簡単化された表面表示244が生成される。示されている例に従って、簡単化された表面表示は所謂ブルズアイ表示である。これはブルズアイプロットとも呼ばれる。そのようなブルズアイ表示は、2次元の、すなわち平面の展開マップにおいて、関心領域の体積情報を示す。空間幾何学的データ216において体積を囲む個々の体積部分は、図9の中央にブルズアイプロットで示されるように、多数のセグメント245に分けられる。空間幾何学的データ216からの表面部分は数符号化されている。更に、フォワードマッピングによって、計算された位置を展開マップ投射に転写することが可能である。簡単化された表面表示244から分かるように、数字によって示されたセグメントは符号化されたパターン又はカラーによってもオーバーレイされる。例えば、ターゲットエリアはある所定のパターン244aによって示され、一方、残りは、他の所定の符号化パターン244bにより符号化される。先に決定ステップにおいて計算された最近点はマーカ246により示される。フォワードマッピングは、矢印240によって示される。このようにして、組み合わせ242が生成され、次いでナビゲーションガイダンスとして表示され得る。
本発明の更なる態様に従って、展開マップ(例えば、ブルズアイビュー)に代えて、簡単化された表面表示のために図10に示されるような3次元の左心室形状を生成することも可能である。ブルズアイビューに関して使用される参照符号に従って、図10は、計算された所定の関連するロケーション点を示すマーカ346と簡単化された表面表示344との組み合わせ342を示す。更に、符号化パターン344aによりターゲットエリアを示すことも可能である。
図11に示される他の例において、左心房は、計算された所定の関連するロケーション点を示したマーカ446と、符号化パターン444aにより示されたターゲットエリアとともに、簡単化された表面表示444として展開された形で示されている。
他の例に従って、左心房の簡単化された知覚ビューが図12に示されている。このように、左心房は、マーカ546及びターゲットエリア544aとともに、簡単化された表面表示544を表す。
図12の左心房はまた、図13に示される展開マップにおいて表示されてもよい。展開マップは、マーカ646及びターゲットエリア644aとともに、簡単化された表面表示644を表す。
図14に示される更なる例に従って、簡単化された表面表示744として、左右の心房が、展開された形で示されている。ここでも、マーカ746及びターゲットエリア744aが示されている。図14は、更なる解剖学的情報(例えば、上大静脈744f、内部大静脈744g、隔壁744h、卵円窩744i、冠状静脈洞744j及び肺静脈744k)を伴って左心房744d及び右心房744eの展開マップを示す。
図15は、例えば左心室の透視ワイヤフレームの形で、簡単化された表面表示844の更なる例を示す。図に示すように、マーカ846及びターゲットエリア844aが示されている。更に、参照符号844cによって示されるワイヤフレームが解剖学的情報によって、例えば血管構造の表示844bによって、付加されている。
図15はまた、本発明の他の態様を示す。本発明の更なる実施例に従って、投射軸が、空間幾何学的データにおける検出された要素から、機能パラメータ面における計算された関連するロケーション点へ設けられる。例えば、この投射軸は、最近点を決定するために使用される。更に、図15における簡単化された表面表示は3次元画像である。図に示すように、この3次元画像は投射軸と整列される。言い換えると、3次元画像は、視覚化軸が例えば目標表面へのカテーテル/ガイドワイヤ/リードの投射の方向と整列されるように、自動的に方向を合わせられる。そのような方向付けにより、カテーテル/ガイドワイヤ/リードは常に可視的であり、如何なる視差も伴わずに表面の当該投射と重ね合わされる。従って、カテーテル/ガイドワイヤ/リードが表面に関してその目標位置に達したことを確認するのが非常に容易になる。
図16は、マーカ946、ターゲットエリア944aを示すパターン、及び血管表示944aによる解剖学的情報とともに、同様の簡単化された表面表示944を示す。更に、簡単化された表面表示944とマーカ946との組み合わせがライブ画像、例えば、上記の実施例に従ってライブ画像データ122として使用される透視画像922にオーバーレイされる。
更なる実施例に従って、図15の簡単化された表面表示844はまた、図17に示される展開された形で表示されてよい。簡単化された表面表示1044は、計算された所定の関連するロケーション点を示すマーカ1046と結合される。更に、符号化パターン1044aによりターゲットエリアを示すことも可能である。図15に従って、解剖学的構造、例えば血管樹1044cも示される。
図18に示される更なる態様に従って、フルオロ画像1122は、例えば図10に従う左心室の透視図と組み合わされる。このように、左心室の形をとる簡単化された表面表示1144はマーカ1146と結合される。更に、符号化パターン1144aによりターゲットエリアを示すことも可能である。更に、参照符号1144cにより示されるように、血管樹も示される。
図19に示される更なる実施例に従って、展開マップ1244は、マーカ1246及び、ターゲットエリア1244aを表す符号化パターンと結合される。更に、血管樹表示1244cがその結合にオーバーレイされる。図20に示される更なる例に従って、ブルズビュー1344は、マーカ1346及びターゲットエリア1344aと結合された簡単化された表面表示を表している。更に、解剖学的情報は、血管樹投射又はモデリング1344cの形でオーバーレイされる。
本発明の態様に従って、例えばインターベンショナル心臓血管プロシージャのための進歩的なガイダンス方法に関して、アブレーション又はペーパーリード配置のためのターゲットゾーンに関するカテーテル/ガイドワイヤ/リードの場所の視覚化が提供される。2次元X線投射への3次元術前表面のオーバーレイ及び登録は、主に隠れた部分及び/又は視差のために、インタロゲーションの実際の部位の十分な理解を可能にするようX線イメージング面の度々の姿勢再設定を必要とすることが示されてきた。従って、本発明は、例えば、3次元空間におけるカテーテル位置のより正確な情報を外科医に提供する。利点として、インタロゲーション目標へと3次元でカテーテル/ガイドワイヤ/リードをナビゲートする負担は最小限とされる。
一態様に従って、本発明は、より容易にインタロゲーション目標を識別してそれに到達するのを助けることができるインターベンショナルガイダンスソフトウェアにおいて具現される。X線システムの姿勢再設定は、ターゲットゾーンに対するカテーテル/ガイドワイヤ/リードの3次元位置に関する十分な情報を得るために全く必要とされない。
一態様に従って、3次元領域の2次元投射を表す画像は、例えばカテーテルの先端の計算された位置とともに実時間で生成されて表示される。
一態様に従って、通常平面天球図を得るために使用されるような他の既知の技術が代替的に使用される。このように、ナビゲーションは、そのような2次元の展開マップ画像において行われる。
利点として、このアプローチは、複雑な3次元生体構造におけるナビゲーションを簡単にし、非常に効率的に治療目標に到達することを助ける。
3次元画像が使用される実施例において、方法は、関心領域の登録された3次元画像を供給するステップと、ナビゲーション生体構造に登録される実時間X線透視2次元画像(この画像は侵襲的機器を示してよい。)を実時間で供給するステップと、実時間で機器の位置を決定/追跡するステップ(これを行うための様々な方法が存在する。例えば、透視画像を分析することによる。)と、前のステップで決定された位置に基づき展開表示における機器のマーカ位置を計算するステップと、計算された位置にあるマーカを含む展開表示を示す画像を表示するステップとを有してよい。
例えば、2次元の術中X線投射は、インターベンショナルツール(例えば、カテーテル先端)を提供される。更に、3次元生体構造の術前又は術中の取得が提供され、インターベンショナルツールは例えば冠状動脈を動くよう強いられる。他の態様に従って、これは、3次元(例えば、電磁局在性)における又は、異なる角度での2つのX線投射により、カテーテルの位置決めを行うよう、他の方法によって置換されてよい。また更に、診療目標(例えば、左心室)の表面表示が提供され、その上に付加的な情報(例えば、傷の場所及び負担、機械機能、電気的活性化等)が表示されてよい。この表面はまた、展開表示(例えば、ブルズアイビュー)で表示されてよい。
一態様に従って、カテーテル/ガイドワイヤ/リードが動いている3次元生体構造の及び、ターゲットエリアが定義される表面の登録が、提供される。ナビゲーション生体構造及びパラメトリック曲面が一緒に登録される。同じ画像診断法がそれら2つの要素を取得するために使用される場合(例えば、左心室心内膜及び冠状静脈の両方についてMRI)、登録は非明示的である。そうでない場合(例えば、冠状静脈についてはCTA及び左心室心内膜については超音波検査)特定の登録方法が適用される必要がある(例えば、共通のランドマークについて推定される厳格な変換)。代替的に、ナビゲーション生体構造及びパラメトリック曲面の登録は、それらの両方を独立して上記の2次元X線投射に登録することによって取得され得る。
他の態様に従って、診療中に使用されるライブイメージングによる上記の解剖学的項目の登録が提供される(例えば、2次元X線投射又は“フルオロ”)。ナビゲーション生体構造及びターゲットエリアが定義される表面は、別々に又はまとめて、2次元X線投射に登録される。例えば、2D−3D視点登録アプローチに基づく点が使用されてよい。X線冠状静脈血管造影図の取得後、少なくとも3つのマーカ点が、2次元投射において、静脈分岐部、CS、血管における急カーブ等の特定の解剖学的場所で決定される。同じ解剖学的点位置は、例えば心臓MR(CMR)から、セグメント化された3次元冠状静脈において決定される。2D−3D登録は、例えば、最適化を用いる6自由度(6DOF、変換及び回転)登録アプローチを用いて、実行される。ここで、2次元投射における点と投射された3次元CMR点との間の二乗距離は、最小限にされる必要がある(投射点距離の最小二乗):
Figure 2014507235
Tは、最適化される6DOF登録変換である。
Figure 2014507235
上記の数2は、X線血管造影図における選択点の組である。
Figure 2014507235
上記の数3は、3次元CMR静脈樹における投射及び変換された選択点の組である。Xは、X線投射マトリクスを表す。登録プロセスの間、X線システムの透視ジオメトリが考慮される必要があり、これは特定の較正ステップから求められ得る。
他の態様に従って、診療中に使用されるライブ画像におけるカテーテル/ガイドワイヤ/リードの検出又は追跡が提供される。これは、2次元X線投射内での実時間でのカテーテル先端(又はガイドワイヤ若しくはリード先端)の検出又は追跡を含む。このために、適切なテンプレート相関フィルタが使用され得る。CRTの具体的な場合に、ガイドワイヤ/ペーサーリードは、冠状静脈系内で追跡され得る。
他の態様に従って、カテーテル/ガイドワイヤ/リードの3次元局在性が提供される。これは、カテーテル先端がナビゲートするよう強いられるナビゲーション生体構造における追跡された位置の逆投射を含んでよい。X線ジオメトリにおける追跡点の逆投射を用いて、3次元ナビゲーション生体構造内の(例えば、術前イメージングからの冠状静脈の中心線に沿った)対応する3次元位置が識別され得る。CRTに関し、冠状静脈系内のガイドワイヤ/リードの3次元における特定の位置は、このようにして決定され得る。逆投射ラインが、例えば2D−3D登録誤り又は動きにより、ナビゲーション生体構造と交差しない場合には、限定的生体構造における最も近い(又は統計的に最もありそうな)点が使用され得る。呼吸及び心臓の動きによる変形は、テンプレートに基づく呼吸動作追跡、ECGゲーティング、又は他の動き補償アプローチにより考慮され得る。
更なる態様に従って、他の方法が、カテーテル先端の3次元位置、例えば電磁局在性(EM局在性)のために又は、異なる角度での2つのX線投射により、使用される。この場合に、限定的ナビゲーション生体構造の必要性は存在せず、本発明は、心室のようなより大きい解剖学的領域(AFアブレーションについての左心房又はVTアブレーションについての左心室)におけるナビゲーションに適用され得る。
他の態様に従って、ターゲットエリアが定義される表面上へのカテーテル/ガイドワイヤ/リードの投射が提供される。これは、3次元パラメトリック曲面における目標の場所に対する決定された3次元位置の最近点の計算を含んでよい。CRTの具体的な場合に、冠状静脈系内の現在の3次元位置からの左心室(LV)表面(それは不連続なメッシュによって表されているとする。)上の最近点は次の数4によって決定される:
Figure 2014507235
Figure 2014507235
上記の数5は、静脈系内の3次元点である。
Figure 2014507235
上記の数6は、頂点iでのLVメッシュの3次元座標である。
他の態様に従って、簡単化されたビュー(展開2次元ビュー又は自動的に方向を合わせられた3次元)におけるカテーテル/ガイドワイヤ/リード及びターゲットエリアの表示が提供される。望ましくは、ナビゲーション生体構造、例えば冠状静脈も同じビューに表示される。
Figure 2014507235
Figure 2014507235
上記の数7で表されるパラメトリック曲面における上記の数8で表されるカテーテル先端の3次元位置及びその最近点が両方とも利用可能である場合に、最も容易な方法で自動的にナビゲーション情報を表示する新しい方法が提案される。第1の提案は、以下で数9により表される座標が視覚化軸と整列されるように、自動的に3次元ビューを方向付けることである。
Figure 2014507235
第2の提案は、以下で数10により表される表面を展開マップで表示することである。
Figure 2014507235
それにより、マップにおいて表示される情報に関してその位置を直接に見ることが可能である。更に、利用可能である場合に、ナビゲーション生体構造も展開マップの上にオーバーレイされてよく、カテーテル先端についての可能な経路に関する情報を提供する。
CRTの具体的な場合に関し、冠状静脈系内の追跡されるガイドワイヤ/リードの位置に対する最近点は、上述されたようにブルズアイプロットにおいて表示される。米国心臓協会によれば、LVは17個のセグメント、6個の基部、6個の赤道面及び5個の尖セグメントに分割され得る。機能的超音波又はMRは、そのようなブルズアイプロットにおける重要な機能情報の視覚化を可能にする。このように、ガイドワイヤ/リードの現在の位置は、ブルズアイにおいて目標スポットに関して実時間で視覚化され得る。CRTについて、ブルズアイは、実際上、機械的活性化、傷の負担及び電気的活性化等の情報を含むべきである。
他の態様に従って、本発明は、生体構造及び特定のパラメータ、すなわち、機能、傷の負担、電気的活性化等(例えば、心室頻拍VTアブレーション、幹細胞注入等)に関してカテーテル/ガイドワイヤ/リードの位置を必要とするCRT又はその他のインターベンショナルプロシージャのために使用され得る。VTアブレーションのために適用される場合に、ブルズアイは、傷の負担及び電気的活性化等の情報を含んでよい。心房細胞アブレーションのために適用される場合に、左心房の2次元表面マップがLVブルズアイの代わりに使用されてよく、肺静脈の口を示す。
本発明の他の実施例(図示せず。)に従って、すなわち、適切なシステムにおいて上記の実施例の1つに従う方法の方法ステップを実行するよう構成されることを特徴とするコンピュータプログラム又はコンピュータプログラムエレメントが提供される。
従って、コンピュータプログラムエレメントはコンピュータユニットに記憶されてよく、更に本発明の実施形態の一部であってよい。このコンピュータユニットは、上記の方法のステップを実行する又はその実行を引き起こすよう構成されてよい。更に、それは、上記の装置の構成要素を動作させるよう構成されてよい。コンピュータユニットは、自動的に動作するよう及び/又はユーザの命令を実行するよう構成され得る。コンピュータプログラムは、データプロセッサのワーキングメモリにロードされてよい。よって、データプロセッサは、本発明の方法を実行するよう装備されてよい。
本発明のこの実施例は、最初から本発明を使用するコンピュータプログラム及び、更新により既存のプログラムを本発明を使用するプログラムに変えるコンピュータプログラムの両方をカバーする。
これより先、コンピュータプログラムエレメントは、上記の方法の実施例のプロシージャを満足する全ての必要なステップを提供することができる。
本発明の更なる実施例(図示せず。)に従って、CD−ROMのようなコンピュータ読取可能媒体が与えられる。コンピュータ読取可能媒体には、上述されたようなコンピュータプログラムエレメントが記憶されている。
コンピュータプログラムは、他のハードウェアとともに又はその一部として供給される固体状態媒体又は光記憶媒体のような適切な媒体において記憶及び/又は配布されてよいが、他の形態において、例えばインターネット又は他の有線若しくは無線の電気通信システムを介して、配布されてもよい。
しかし、コンピュータプログラムはまた、ワールドワイドウェブのようなネットワーク上で提供されてもよく、そのようなネットワークからデータプロセッサのワーキングメモリにダウンロードされ得る。本発明の更なる実施例に従って、コンピュータプログラムエレメントをダウンロードのために利用可能とする媒体が提供される。コンピュータプログラムエレメントは、本発明の上記の実施例の1つに従う方法を実行するよう配置される。
本発明の実施形態は、異なる対象を参照して記載される点が知られる必要がある。特に、幾つかの実施形態は、方法カテゴリの請求項を参照して記載され、一方、他の実施形態は、装置カテゴリの請求項を参照して記載される。しかし、当業者は上記及び下記から、別なふうに知らされない限りは1つの発明カテゴリに属する特徴のいずれかの組み合わせに加えて別の発明カテゴリに関連する特徴の間の如何なる組み合わせも本願により開示されると考えられると推測するであろう。なお、全ての特徴が組み合わされてよく、それらの特徴の単純な足し合わせを超える相乗効果を提供する。
特許請求の範囲において、語“有する”又は“含む”は、他の要素又はステップを除外せず、冠詞“1つの”は、複数個を除外しない。単一のプロセッサ又は他のユニットが、特許請求の範囲に挙げられている複数の項目の機能を満たしてよい。特定の手段が相互に異なる請求項において挙げられている単なる事実は、それらの手段の組み合わせが有利に使用され得ないことを示すものではない。

Claims (15)

  1. 関心のある対象の情報を視覚化する方法であって:
    a)空間幾何学的データと該空間幾何学的データに対応する機能パラメータ面とを含む、対象の関心領域のナビゲーション前データを供給するステップ;
    b)前記関心領域のライブ画像データを取得するステップ;
    c)前記ライブ画像データにおいて要素を検出するステップ;
    d)前記ナビゲーション前データと前記ライブ画像データとの空間的関係を決定するステップ;
    e)前記空間的関係に基づき前記空間幾何学的データにおいて前記検出された要素の位置を決定し、前記機能パラメータ面における所定の関連するロケーション点を計算するステップ;
    f)前記機能パラメータ面の視覚化に基づく前記関心領域の簡単化された表面表示と、前記計算された所定の関連するロケーション点を示すマーカとの組み合わせを生成するステップ;及び
    g)前記組み合わせをナビゲーションガイダンスとして表示するステップ
    を有する方法。
  2. 前記簡単化された表面表示は、展開マップ画像である、
    請求項1に記載の方法。
  3. 前記展開マップは、ブルズアイビューである、
    請求項2に記載の方法。
  4. 前記所定の関連するロケーション点は、最近点である、
    請求項1に記載の方法。
  5. 前記要素の検出は、前記ライブ画像データにおいて前記要素の2次元位置を決定することを含み、前記ステップe)において前記位置を決定するために、前記決定された2次元位置は、直射ラインによって前記空間幾何学的データにマッピングされる、
    請求項1に記載の方法。
  6. 前記ステップe)は、前記要素の空間位置を推定するよう、前記空間幾何学的データにおける追跡された位置の逆投射を含む、
    請求項1に記載の方法。
  7. 前記逆投射が前記空間幾何学的データに従って生体構造と交差しない場合に、前記生体構造における最も近い又は統計的に最もありそうな点が使用される、
    請求項6に記載の方法。
  8. 前記空間幾何学的データにおける前記検出された要素から前記機能パラメータ面における前記計算された関連するロケーション点への投射軸が提供され、前記簡単化された表面表示は3次元画像であり、該3次元画像は前記投射軸と整列される、
    請求項1に記載の方法。
  9. 前記ステップf)は、ナビゲーション生体構造を前記簡単化された表面表示と組み合わせることを含む、
    請求項1に記載の方法。
  10. 前記ナビゲーション生体構造は、血管構造の投射を有する、
    請求項1に記載の方法。
  11. 前記ナビゲーションガイダンスは、機能パラメータ面情報と、前記関心領域に関する前記要素の3次元位置決め情報とを含む2次元表示である、
    請求項1に記載の方法。
  12. 関心のある対象の情報を視覚化する装置であって:
    − 処理部;
    − インターフェース部;及び
    − 表示部
    を有し、
    前記インターフェース部は、空間幾何学的データと該空間幾何学的データに対応する機能パラメータ面とを含む、対象の関心領域のナビゲーション前データを供給し、且つ、前記関心領域のライブ画像データを供給するよう構成され、
    前記処理部は、前記ライブ画像データにおいて要素を検出し、前記ナビゲーション前データと前記ライブ画像データとの空間的関係を決定し、該空間的関係に基づき前記空間幾何学的データにおいて前記検出された要素の位置を決定し、前記機能パラメータ面における所定の関連するロケーション点を計算し、且つ、前記機能パラメータ面の視覚化に基づく前記関心領域の簡単化された表面表示と、前記計算された所定の関連するロケーション点を示すマーカとの組み合わせを生成するよう構成され、
    前記表示部は、前記組み合わせをナビゲーションガイダンスとして表示するよう構成される、
    装置。
  13. 関心のある対象の情報を視覚化する画像診断システムであって:
    − 請求項12に記載の装置;及び
    − 画像取得手段
    を有し、
    前記画像取得手段は、前記関心領域の前記ライブ画像データを取得するよう構成される、
    画像診断システム。
  14. 請求項12に記載の装置を制御するコンピュータプログラムであって、処理部によって実行される場合に、請求項1乃至11のうちいずれか一項に記載の方法を実行するよう構成されるコンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムを記憶したコンピュータ読取可能媒体。
JP2013555980A 2011-03-02 2012-03-01 ナビゲーションガイダンスのための視覚化 Active JP6166663B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP11305225.2 2011-03-02
EP11305225 2011-03-02
PCT/IB2012/050966 WO2012117366A1 (en) 2011-03-02 2012-03-01 Visualization for navigation guidance

Publications (2)

Publication Number Publication Date
JP2014507235A true JP2014507235A (ja) 2014-03-27
JP6166663B2 JP6166663B2 (ja) 2017-07-19

Family

ID=45833492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013555980A Active JP6166663B2 (ja) 2011-03-02 2012-03-01 ナビゲーションガイダンスのための視覚化

Country Status (7)

Country Link
US (1) US9554728B2 (ja)
EP (1) EP2680755B1 (ja)
JP (1) JP6166663B2 (ja)
CN (1) CN103687541B (ja)
BR (1) BR112013021977A2 (ja)
RU (1) RU2594811C2 (ja)
WO (1) WO2012117366A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017000749A (ja) * 2015-06-04 2017-01-05 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 冠状静脈洞のカテーテル画像の位置合わせ

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103002809B (zh) * 2010-07-19 2016-01-06 皇家飞利浦电子股份有限公司 适应性的路线图绘制
WO2015177012A1 (en) 2014-05-23 2015-11-26 Koninklijke Philips N.V. Imaging apparatus for imaging a first object within a second object
US10105117B2 (en) * 2015-02-13 2018-10-23 Biosense Webster (Israel) Ltd. Compensation for heart movement using coronary sinus catheter images
EP3313292B1 (en) 2015-06-25 2019-03-06 Koninklijke Philips N.V. Image registration
US11172991B2 (en) 2016-09-08 2021-11-16 Medtronic, Inc. Navigation with arbitrary catheter geometries and method of contact assessment
US10096105B2 (en) 2016-09-08 2018-10-09 Medtronic Cryocath Lp Method of determining target treatment locations
US10702342B2 (en) 2016-09-08 2020-07-07 Medtronic, Inc. Navigation guidance method for complex catheters
WO2018053486A1 (en) * 2016-09-19 2018-03-22 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
US10748319B1 (en) 2016-09-19 2020-08-18 Radlink, Inc. Composite radiographic image that corrects effects of parallax distortion
CN106643727A (zh) * 2016-12-02 2017-05-10 江苏物联网研究发展中心 用于机器人导航的地图的构建方法
US10321878B2 (en) 2016-12-22 2019-06-18 Biosense Webster (Israel) Ltd. Pulmonary vein display in two dimensions
RU2654267C1 (ru) * 2017-03-22 2018-05-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Саратовский государственный медицинский университет им. В.И. Разумовского" Министерства здравоохранения Российской Федерации Способ радиочастотной термоабляции опухолевого новообразования печени
EP3406195A1 (en) * 2017-05-24 2018-11-28 Koninklijke Philips N.V. Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
EP3482693A1 (en) * 2017-11-09 2019-05-15 Koninklijke Philips N.V. Biopsy container with identifier
WO2020082236A1 (zh) * 2018-10-23 2020-04-30 深圳迈瑞生物医疗电子股份有限公司 一种心脏运动定量分析方法和超声系统
EP4177843A1 (en) * 2021-11-08 2023-05-10 Koninklijke Philips N.V. Image processing device, medical imaging system and computer program element

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332191A (ja) * 1995-06-09 1996-12-17 Hitachi Medical Corp 3次元画像処理表示装置および方法
JP2000175897A (ja) * 1998-12-17 2000-06-27 Toshiba Corp 手術支援用x線ct装置
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
JP2007061617A (ja) * 2005-08-30 2007-03-15 Biosense Webster Inc 生理的データを使用した多様式の画像の断片化と位置合わせ
JP2007117746A (ja) * 2005-10-28 2007-05-17 Biosense Webster Inc 超音波イメージングデータの電気マッピングとの同期化
JP2008173236A (ja) * 2007-01-17 2008-07-31 Toshiba Corp 医用画像表示装置
JP2008253753A (ja) * 2007-03-14 2008-10-23 Fujifilm Corp 心機能表示装置およびそのプログラム
JP2009519083A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電気生理マッピングおよび治療の際の心臓形態可視化のシステムおよび方法
JP2009268693A (ja) * 2008-05-07 2009-11-19 Toshiba Corp X線撮影装置、画像処理装置および画像処理プログラム
JP2010075554A (ja) * 2008-09-26 2010-04-08 Toshiba Corp X線診断装置、及びその画像処理方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3332191B2 (ja) 1995-05-26 2002-10-07 日本電気硝子株式会社 ガラス繊維回巻体
JP2000139917A (ja) 1998-11-12 2000-05-23 Toshiba Corp 超音波診断装置
US6650927B1 (en) * 2000-08-18 2003-11-18 Biosense, Inc. Rendering of diagnostic imaging data on a three-dimensional map
JP4584575B2 (ja) 2001-07-06 2010-11-24 クゥアルコム・インコーポレイテッド 3d画像に表示される3dサーフェイスとインタラクトする画像処理方法
US7499743B2 (en) * 2002-03-15 2009-03-03 General Electric Company Method and system for registration of 3D images within an interventional system
US8538098B2 (en) 2002-06-28 2013-09-17 Koninklijke Philips N.V. Image processing method for displaying information relating to parietal motions of a deformable 3-D object
JP2007501069A (ja) 2003-08-04 2007-01-25 シーメンス コーポレイト リサーチ インコーポレイテツド 視覚化のための仮想的器官展開処理方法
JP5122743B2 (ja) * 2004-12-20 2013-01-16 ゼネラル・エレクトリック・カンパニイ インターベンショナルシステム内で3d画像を位置合わせするシステム
DE102005002950B4 (de) 2005-01-21 2007-01-25 Siemens Ag Verfahren zur automatischen Bestimmung der Position und Orientierung des linken Ventrikels und/oder angrenzender Bereiche in 3D-Bilddatensätzen des Herzens
EP1869637A1 (en) * 2005-03-31 2007-12-26 Paieon Inc. Method and apparatus for positioning a device in a tubular organ
US7813535B2 (en) 2005-04-19 2010-10-12 Siemens Medical Solutions Usa, Inc. System and method for fused PET-CT visualization for heart unfolding
CN1862596A (zh) * 2005-04-19 2006-11-15 西门子共同研究公司 针对心脏展开的所融合的pet-ct可视化的系统和方法
US8870779B2 (en) * 2005-04-26 2014-10-28 Biosense Webster, Inc. Display of two-dimensional ultrasound fan
DE102005023167B4 (de) * 2005-05-19 2008-01-03 Siemens Ag Verfahren und Vorrichtung zur Registrierung von 2D-Projektionsbildern relativ zu einem 3D-Bilddatensatz
DE102005042329A1 (de) 2005-09-06 2007-03-08 Siemens Ag Verfahren und Vorrichtung zur visuellen Unterstützung einer elektrophysiologischen Katheteranwendung am Herzen durch bidirektionalen Informationstransfer
US7855723B2 (en) * 2006-03-21 2010-12-21 Biosense Webster, Inc. Image registration using locally-weighted fitting
US8073213B2 (en) * 2006-10-30 2011-12-06 General Electric Company Method for generating a registered image relative to a cardiac cycle and a respiratory cycle of a person
US7912270B2 (en) 2006-11-21 2011-03-22 General Electric Company Method and system for creating and using an impact atlas
WO2008065581A2 (en) * 2006-11-28 2008-06-05 Koninklijke Philips Electronics N.V. Apparatus for determining a position of a first object within a second object
US8255037B2 (en) 2007-03-02 2012-08-28 Koninklijke Philips Electronics N.V. Cardiac roadmapping
RU2353324C2 (ru) * 2007-04-05 2009-04-27 Государственное образовательное учреждение дополнительного профессионального образования "Новокузнецкий государственный институт усовершенствования врачей Федерального агентства по здравоохранению и социальному развитию" Способ выбора доступа для выполнения оперативного вмешательства
US20080281195A1 (en) 2007-05-09 2008-11-13 General Electric Company System and method for planning LV lead placement for cardiac resynchronization therapy
US8195271B2 (en) * 2007-11-06 2012-06-05 Siemens Aktiengesellschaft Method and system for performing ablation to treat ventricular tachycardia
CN103562959B (zh) * 2011-03-02 2017-05-24 皇家飞利浦有限公司 用于提供支持对血管介入程序中的介入设备的准确引导的图像表示的医疗成像系统和方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08332191A (ja) * 1995-06-09 1996-12-17 Hitachi Medical Corp 3次元画像処理表示装置および方法
JP2000175897A (ja) * 1998-12-17 2000-06-27 Toshiba Corp 手術支援用x線ct装置
JP2002119507A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置および医用画像収集表示方法
JP2007061617A (ja) * 2005-08-30 2007-03-15 Biosense Webster Inc 生理的データを使用した多様式の画像の断片化と位置合わせ
JP2007117746A (ja) * 2005-10-28 2007-05-17 Biosense Webster Inc 超音波イメージングデータの電気マッピングとの同期化
JP2009519083A (ja) * 2005-12-15 2009-05-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 電気生理マッピングおよび治療の際の心臓形態可視化のシステムおよび方法
JP2008173236A (ja) * 2007-01-17 2008-07-31 Toshiba Corp 医用画像表示装置
JP2008253753A (ja) * 2007-03-14 2008-10-23 Fujifilm Corp 心機能表示装置およびそのプログラム
JP2009268693A (ja) * 2008-05-07 2009-11-19 Toshiba Corp X線撮影装置、画像処理装置および画像処理プログラム
JP2010075554A (ja) * 2008-09-26 2010-04-08 Toshiba Corp X線診断装置、及びその画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017000749A (ja) * 2015-06-04 2017-01-05 バイオセンス・ウエブスター・(イスラエル)・リミテッドBiosense Webster (Israel), Ltd. 冠状静脈洞のカテーテル画像の位置合わせ

Also Published As

Publication number Publication date
RU2013144201A (ru) 2015-04-10
EP2680755A1 (en) 2014-01-08
WO2012117366A1 (en) 2012-09-07
US9554728B2 (en) 2017-01-31
RU2594811C2 (ru) 2016-08-20
JP6166663B2 (ja) 2017-07-19
CN103687541B (zh) 2017-02-15
EP2680755B1 (en) 2014-12-17
US20130336558A1 (en) 2013-12-19
CN103687541A (zh) 2014-03-26
BR112013021977A2 (pt) 2018-06-12

Similar Documents

Publication Publication Date Title
JP6166663B2 (ja) ナビゲーションガイダンスのための視覚化
US11642173B2 (en) Image-based navigation system and method of using same
JP7440534B2 (ja) 2次元画像投影を用いた、トラッキングシステムと画像との空間レジストレーション
EP2099378B1 (en) Apparatus for determining a position of a first object within a second object
US20140023250A1 (en) Medical imaging systen and method for providing an image representation supporting accurate guidance of an intervention device in a vessel intervention procedure
CN113646808A (zh) 空间跟踪系统与增强现实显示器的配准
JP5243754B2 (ja) 画像データの位置合わせ
AU2019217999A1 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
CN103648394A (zh) 使用外科工具曲线与x-射线图像的配准的实时3d血管造影
KR101954868B1 (ko) 혈관 중재 시술을 위한 내비게이션 시스템 및 가상의 엑스선 이미지 생성 방법
EP2931160B1 (en) Position determination apparatus
CN105520716A (zh) 荧光镜图像的实时模拟
US10806520B2 (en) Imaging apparatus for imaging a first object within a second object
US10292773B2 (en) Position determination system
CN116744875A (zh) 导航支持
US20220096165A1 (en) Interventional device tracking
CN117677358A (zh) 用于手术期间现场x射线荧光透视和c形臂计算机断层扫描成像的立体投影和交叉参考的增强现实系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170623

R150 Certificate of patent or registration of utility model

Ref document number: 6166663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250