JP2020501865A - 医療機器、特に心臓カテーテルのためのナビゲーション・プラットフォーム - Google Patents

医療機器、特に心臓カテーテルのためのナビゲーション・プラットフォーム Download PDF

Info

Publication number
JP2020501865A
JP2020501865A JP2019554021A JP2019554021A JP2020501865A JP 2020501865 A JP2020501865 A JP 2020501865A JP 2019554021 A JP2019554021 A JP 2019554021A JP 2019554021 A JP2019554021 A JP 2019554021A JP 2020501865 A JP2020501865 A JP 2020501865A
Authority
JP
Japan
Prior art keywords
model
ultrasound
probe
patient
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019554021A
Other languages
English (en)
Other versions
JP7157074B2 (ja
Inventor
アントニユス ハルクス,ホデフリデュス
アントニユス ハルクス,ホデフリデュス
ヴェンカー,フランス
ヤン ウィレム ベルト,ハルム
ヤン ウィレム ベルト,ハルム
ヘルハルデュス アールニンク,レイナルデュス
ヘルハルデュス アールニンク,レイナルデュス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Priority claimed from PCT/EP2017/083950 external-priority patent/WO2018115200A1/en
Publication of JP2020501865A publication Critical patent/JP2020501865A/ja
Application granted granted Critical
Publication of JP7157074B2 publication Critical patent/JP7157074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00243Type of minimally invasive operation cardiac
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00703Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement of heart, e.g. ECG-triggered
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3786Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument receiver only
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M25/00Catheters; Hollow probes
    • A61M25/01Introducing, guiding, advancing, emplacing or holding catheters
    • A61M25/0105Steering means as part of the catheter or advancing means; Markers for positioning
    • A61M25/0108Steering means as part of the catheter or advancing means; Markers for positioning using radio-opaque or ultrasound markers

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明は、心室などの患者身体の領域における医療機器(1)のナビゲーションを補助するシステムに関する。このシステムは、領域の3次元モデルを提供するためのユニット(5)と、患者身体の領域の画像信号を取得するための超音波プローブ(2)とを含む。少なくとも1つの超音波センサ(6)が、超音波プローブ(2)によって放射された超音波信号を検知するために医療機器(1)に取り付けられ、追跡ユニット(7)が、検知された超音波信号に基づいて、ライブ画像及び/又は超音波プローブ(2)に対する少なくとも1つの超音波センサ(6)の相対位置を決定する。さらに、マッピング・ユニット(8)は、少なくとも1つの超音波センサ(6)の決定された相対位置をモデル上にマッピングして、患者身体の領域の可視化を生成する。〔選択図〕 図4

Description

本発明は、患者身体の領域において医療機器をナビゲートするときにユーザを補助するためのシステム及び方法に関する。さらに、本発明は、本方法を実行するためのコンピュータ・プログラムに関する。患者身体の領域は、特に心室であってもよく、医療機器は、特に心臓カテーテル(intracardiac catheter)又は他の心臓内機器であってもよい。
電気生理学(EP:electrophysiology)処置及び構造的心疾患(SHD:structural heart disease)処置を含む介入性心臓病処置(interventional cardiology procedures)は、
これらの処置で使用される解剖学的構造(anatomy)及び放射線不透過性装置(radiopaque devices)のリアルタイムの可視化(visualization)を可能にする蛍光透視法(fluoroscopy)の使用に依存する。しかし、蛍光透視法の主な欠点は、患者とスタッフの放射線量に対する被曝である。従って、これらの処置の間、蛍光透視法の使用を最小限に抑えるトレンドと要望がある。蛍光透視法のもう一つの欠点は、軟部組織構造(soft−tissue structures)を可視化できないことである。
心臓内超音波検査(ICE)、経食道心エコー(TEE)及び経胸壁心エコー(TTE)を含む超音波(US)画像化もこれらの処置でしばしば使用される。US画像化は、有害な散乱放射線を用いずに軟部組織構造及び血流を可視化することができるという利点を有する。カテーテルや針などの器具は、超音波を用いて可視化することができる。しかし、特に2次元超音波を使用する場合、装置が画像化された面から外れる可能性があり、シャドーイング及び反射(reverberations)が先端(tip)の識別を複雑にするため、そのような装置の先端を識別することはしばしば困難である。
従って、心臓病処置において医療機器をナビゲートするためのナビゲーション・プラットフォームは、電磁追跡(EM)、インピーダンス追跡、光学形状検知又は衛星ベース追跡のようなある追跡モダリティに従って医療機器を追跡するための追加のハードウェアを使用することができる。しかしながら、これらの追跡モダリティは、例えば、US画像に示されているような、解剖学的構造に対する医療機器の位置の特定に関して不正確さを生じさせる。
同様に、電気解剖学的マッピングのように、追跡された装置が心臓又は他の身体領域の解剖学的構造を再構築するために使用される場合、例えば、生成された解剖学的表現は、装置の追跡における不正確のために不正確であり得る。EM追跡において、このような不正確さは、特に、外乱を引き起こし得る環境中の金属に起因し得る。インピーダンス追跡のために、患者表面上のパッチが基準として使用されるが、様々な組織(例えば、心臓及び肺)のインピーダンスの不均質性及び処置中の容積負荷の変化は、不正確さを生じ得る。光学形状検知では、患者のテーブルの固定具(fixture)を基準として使用し、この固定具の位置誤差は光ファイバの長さにわたって伝搬する。GPS(グローバル・ポジショニング・システム)を用いた追跡のような衛星ベースの追跡についても、位置決めは解剖学的構造に依存しない。
本発明の目的は、上述の問題を軽減し、そのUS画像に示されるように、解剖学的構造に関して医療機器のより正確な位置決めを可能にするナビゲーション・プラットフォームを提供することである。
第1の態様によれば、本発明は、患者身体の領域において医療機器をナビゲートするときにユーザを補助するシステムを提供する。このシステムは、(i)患者身体の領域における医療機器のナビゲーションのユーザを補助するためのシステムであって、前記患者身体の前記領域の3次元モデルを提供するように構成された3次元モデル提供ユニットと、(ii)前記患者身体の前記領域の画像信号を取得するための超音波プローブと、前記画像信号に基づいて前記患者身体の前記領域のライブ画像を提供するように構成された超音波ユニットと、(iii)前記超音波プローブによって放射される超音波信号を検知するために前記医療機器に取り付けられた少なくとも1つの超音波センサと、(iv)前記検知された超音波信号に基づいて、前記ライブ画像及び/又は前記超音波プローブに対する前記少なくとも1つの超音波センサの相対位置を決定するように構成された追跡ユニットと、(v)前記少なくとも1つの超音波センサの前記決定された相対位置を前記モデルにマッピングし、前記モデルに基づいて、前記マッピングの結果に基づいて、前記患者身体の領域の可視化を生成するように構成されたマッピング・ユニットと、を含む。
医療機器の位置は、超音波プローブによって発せられ、超音波センサによって検知される超音波信号に基づいて、超音波プローブに対する少なくとも1つの超音波センサの相対位置を決定することによって追跡されるので、超音波プローブによって画像化される患者身体の領域の解剖学的構造に関連して、医療機器を正確に追跡することが可能である。さらに、超音波センサの位置、ひいては、医療機器の位置は、患者身体の関連領域のモデルに関連して表示することができる。これは、モデル上の位置のマッピングに基づいて行われ、これは特に、モデルが定義される基準フレームへの位置の変換に対応する。
一実施形態では、マッピング・ユニットは、少なくとも1つの超音波センサの位置がマークされるモデルの可視化を生成するように構成される。関連する実施形態において、マッピング・ユニットは、さらに、ライブ画像をモデルにマッピングし、このマッピングの結果に基づいて、モデルを可視化内のライブ画像とオーバーレイするように構成される。これらの実施形態では、モデルによって表されるような解剖学的構造に関して、また、任意に、ライブ画像に関して、医療機器の位置(position)及び/又は向き(orientation)を可視化することが可能である。これらの可視化に基づいて、医療機器は、患者身体の領域内で正確に操作され得る。
さらなる関連する実施形態では、マッピング・ユニットは、ライブ画像とモデルとの画像比較に基づいてライブ画像をモデルにマッピングするように構成される。画像比較は、ライブ画像内の基準特徴(fiducial features)及びモデルの対応する特徴に基づいて、特に実行され得る。画像比較に基づいて、ライブ画像を比較的迅速且つ容易にモデルにマッピングすることができる。
さらなる実施形態において、マッピング・ユニットは、モデルに関連付けられた基準フレームに関する超音波プローブの相対位置及び向きに基づいて、ライブ画像をモデルにマッピングするように構成される。この実施形態の利点は、位置及び向き(position and orientation)情報に基づいてマッピングすることにより、ライブ画像とモデルとの非常に正確なマッチングが可能になることである。
マッピング手順では、マッピングの精度を向上させるために、ライブ画像とモデルとの比較に加えて、位置情報を考慮してもよい。同様に、比較に基づいて、又は位置及び向き情報だけに基づいてマッピングを行うことが可能である。
一実施形態では、3次元(3D)モデル提供ユニットは、初期化フェーズの間に、超音波プローブを使用して取得された超音波画像を使用してモデルを作成するように構成され、初期化フェーズは、さらなる超音波センサが基準位置に配置され、基準フレームが、さらなる超音波センサによって検知された超音波信号に基づいて決定されたさらなる超音波センサに対する超音波プローブの相対位置及び向きに基づいて画定される。関連する実施形態は、ライブ画像の取得の間に、さらなる超音波センサが基準位置に配置され、マッピング・ユニットが、超音波プローブに対するさらなる超音波センサの相対位置及び/又は向きに基づいて、基準フレームに対する超音波プローブの相対位置及び向きを決定するように構成されることを含む。
これらの実施形態において、さらなる超音波センサは、さらなる医療機器に取り付けられてもよい。この医療機器は、初期化フェーズ中及び処置中に固定位置を保持することができ、ここでは、少なくとも1つの超音波センサの位置が追跡され、その結果、装置上に取り付けられたさらなる超音波センサの位置は、位置基準として上述の方法で使用することができる。これらの実施形態の例示的な実装において、さらなる医療機器は、位置基準を提供するために特に使用されてもよい。別の実装では、さらなる医療機器は、処置中に別の機能を有し得る。このようなさらなる医療機器の例は、電気信号を検知するために、又は刺激のために組織に電気信号を印加するために使用され得る診断用電気生理学(EP)カテーテル(diagnostic electrophysiology catheter)である。
同様に、さらなる超音波センサの位置と独立して超音波プローブを追跡することが可能である。この点に関し、一実施形態は、システムが、基準フレームに対する超音波プローブの位置及び向きを決定するための追跡構成をさらに含み、追跡構成は、電磁追跡、インピーダンス追跡、光学形状検知及び衛星ベースの追跡を含む群からの少なくとも1つの追跡技術を使用する。
患者の身体の領域は、異なる運動フェーズを有する周期的運動を受けることがある。この点に関し、一実施形態は、各運動フェーズに対する変形サブモデル(deforming sub−model)を含む動的モデルであるモデルと、現在の運動フェーズを決定し、現在の運動フェーズに対する変形サブモデル上に少なくとも1つの超音波センサの相対位置をマッピングするように構成されるマッピング・ユニットとを含む。これにより、患者身体の領域の周期的運動の異なるフェーズに対する可視化を生成することができる。患者身体の領域の周期的運動は、心臓の動き及び/又は呼吸運動によることがある。現在の運動フェーズは、ライブ超音波画像に基づいて識別されてもよい。同様に、他の技術を適用して、運動フェーズを識別することもできる。
さらなる実施形態において、医療機器は、患者身体の領域の電気解剖学的マップを生成するために電気的測定を実行するように構成され、マッピング・ユニットは、測定中に超音波プローブに対する少なくとも1つの超音波センサの相対位置に基づいて、モデル上に電気解剖学的マップをオーバーレイするように構成される。電気解剖学的マップは、特に、患者の心臓の領域を含むことができる患者身体の領域の活性化マップ(activation map)及び/又は電圧マップを含むことができる。少なくとも1つの超音波センサを用いて決定された位置情報に基づいて電気解剖学的マップを生成することによって、患者身体の関連領域の正確なマップを決定することができる。
さらなる実施形態では、マッピング・ユニットは、少なくとも1つの超音波センサの位置に基づいて、仮想眼(virtual eye)によって見える視野に対応するモデルの可視化を生成するように構成される。仮想眼は、特に、少なくとも1つの超音波センサの位置に配置されてもよい。このような方法で、患者身体の関連領域の解剖学的構造は、特に医療機器の先端に取り付けることができる超音波センサの視点から見ることができる。これらの実施形態のさらなる実装において、仮想眼は、3次元モデルにおいて提示されるある解剖学的ランドマークの位置に配置されてもよい。
仮想眼によって見られる視野は、特に、仮想眼の視野に含まれるモデルの一部を含む。仮想眼の視野は、特に、この場合、医療機器の遠位端部の長手方向に沿って向けられ、医療機器の前方の領域をカバーして(cover)もよい。
関連する実施形態では、マッピング・ユニットは、マッピングの結果に基づいて、ライブ画像を視野にマッピングし、可視化内のライブ画像に視野をオーバーレイするように構成される。さらなる関連する実施形態では、マッピング・ユニットは、ライブ画像及び/又は超音波プローブの位置及び向きのモデルへマッピングに基づいて、ならびに超音波プローブに対する少なくとも1つの超音波センサの相対位置及び向きに基づいて、可視化を生成するように構成される。
超音波プローブに対する少なくとも1つの超音波センサの相対位置の決定に関して、
1つの実施形態は、超音波プローブが、超音波信号を異なる向きに放射するように構成され、追跡ユニットが、超音波センサにおける超音波信号の受信レベルに基づいて、少なくとも1つの超音波センサの位置を決定するように構成されることを含む。さらなる実施形態では、追跡ユニットは、超音波プローブによる超音波信号の放射と超音波センサによる超音波信号の検知との間の時間差に基づいて、少なくとも1つの超音波センサの位置を決定するように構成される。
さらなる態様によれば、本発明は、患者身体の領域において医療機器をナビゲートするときにユーザを補助する方法を提供する。この方法は、(i)前記患者身体の前記領域の3次元モデルを提供することと、(ii)超音波プローブを用いて取得した画像信号に基づいて、前記患者身体の前記領域のライブ画像を取得することと、(iii)前記超音波プローブに関して前記医療機器に取り付けられた少なくとも1つの超音波センサの相対位置を決定することであって、前記超音波センサは前記超音波プローブによって放射された超音波信号を検知する、相対位置を決定することと、(iv)前記少なくとも1つの超音波センサの前記決定された相対位置を前記モデル上にマッピングすることであって、前記モデルに基づいて、且つ前記マッピングの結果に基づいて、前記患者身体の前記領域の可視化を生成する、マッピングすることと、を含む。
さらなる態様によれば、本発明は、コンピュータ・プログラムがコンピュータ装置上で実行されるとき、コンピュータ装置にこの方法を実行するように指示するプログラム・コードを含むコンピュータ・プログラムを提供する。
請求項1記載のシステム及び請求項14記載の方法及び請求項15記載のコンピュータ・プログラムは、特に従属請求項において定義されるような、類似及び/又は同一の好ましい実施形態を有することを理解すべきである。
本発明の好ましい実施形態は、従属請求項又は上述の実施形態とそれぞれの独立請求項の任意の組み合わせであってもよいことを理解すべきである。
本発明のこれらの態様及び他の態様は、以下に記載される実施形態から明らかであり、それらを参照して解明される。
以下の図面において:
患者身体の領域において医療機器をナビゲートするためのシステムの構成要素を概略的且つ例示的に示す。 心臓の左心房の3次元モデルを概略的且つ例示的に示す。 モデル上にマッピングされたシステムのUSプローブの視野に対応する2次元スライスを概略的且つ例示的に示す。 モデル上にマッピングされたシステムのUSプローブの視野に対応する3次元円錐を概略的且つ例示的に示す。 USライブ画像と医療機器の位置とをモデル上にオーバーレイした可視化を概略的且つ例示的に示す。 モデル上で医療機器に取り付けられたUSセンサの現在位置と先行する位置のオーバーレイを概略的且つ例示的に示す。 モデルを用いて医療機器の位置を示す可視化を生成する手順のステップを図式的及び例示的に示す。
図1は、特に心室に対応することができる患者身体の領域において医療機器1をナビゲートするためのシステムの構成要素を概略的且つ例示的に示す。このシステムは、患者身体の関連領域、及び医療機器を用いて介入処置を行う医師に対して、患者身体の領域で使用される1つ以上の医療機器1の位置及び/又は向きを、可視化することを可能にする。生成された可視化に基づき、医師は介入処置中に医療機器1を操作することができる。
医療機器1は、例えば、カテーテル、具体的には、アブレーション・カテーテル、針又はガイドワイヤであってもよい。このシステムは、弁置換/修復(valve replacement/repair)(例えば、経カテーテル大動脈弁置換(TAVR:Transcatheter Aortic Valve Replacement)、僧帽弁クリップ(mitraclip)、肺動脈弁(pulmonic valve)、三尖弁(tricuspid valve)など)及び閉塞(例えば、ASD/PFO閉鎖、VSD閉鎖、左心耳閉鎖(left atrial appendage closure)など)を含む構造的心疾患処置を実施するために特に使用され得る。さらに、このシステムは、心房細動(AF)を含む不整脈の治療のためのカテーテル・アブレーション処置を含む、アブレーションを伴う電気生理学(EP)研究で使用することができる。
このシステムは、ある視野に関してUS画像を生成するために、US信号を放射し、US信号のエコーを検出するためのUSトランスデューサを含む小型化されたUSプローブ2を含む。介入処置の間、USプローブ2は、本質的にリアルタイムで関連する身体領域のライブUS画像を取得するために、患者身体内に挿入される。USプローブ2を患者身体内に挿入するために、カテーテル又は同様の細長い装置に取り付けることができる。
USプローブ2は、3次元又は2次元のUS画像を取得するように構成される。US画像を生成するために、USプローブ2によって検知されたUS信号は、患者身体の外部に配置され、USプローブ2に接続され、当業者に公知の方法でUS信号に基づいてUS画像を生成するように構成された、USユニット3で処理される。
患者身体の関連領域が心室を含む場合、USプローブ2は好ましくは心臓に挿入され、ICE技術に従って関連する心室を画像化する。しかしながら、USプローブ2は、同様に、TEEにおけるような食道からの心エコー画像化、又はTTEにおけるような患者身体の外部の位置からの心エコー画像化など、当業者に公知の他の心エコー技術に従って構成及び利用されてもよい。
さらに、このシステムは、USプローブ2に対する医療機器1の位置及び/又は向きを決定するための追跡構成を含む。この追跡構成は、以下でさらに詳細に説明する。USプローブ2に対する医療機器1の相対位置及び/又は向きに基づいて、システムは、患者身体の関連領域における医療機器1の位置及び/又は向きの可視化を生成する。
本システムでは、患者身体の関連領域及びその中に位置する医療機器1の位置及び/又は向きの可視化は、患者身体の関連領域の3次元モデルに基づく。より具体的には、システムは、ライブUS画像及び医療機器の位置及び/又は向きの表示がモデルの上にオーバーレイされる可視化を生成し得る。加えて又は代替として、システムは、医療機器1の先端における仮想眼の視野に含まれるモデルの一部を含む可視化を生成してもよい。モデルのこの部分は、可視化においてライブUS画像によってさらにオーバーレイされてもよい。
関心のある容積、及び医療機器1の位置及び/又は向きの可視化を表示するために、システムはさらに表示ユニット4を備える。表示ユニット4は、モニタ画面を備えてもよい。同様に、ディスプレイ・ユニット4は、別の方法で構成することができ、例えば、仮想現実グラス(メガネ)を含むことができる。
患者の関連領域の3次元モデルは、好ましくは、実際の介入処置の前に作成され、その間に、ライブUS画像が取得され、実際の介入処置中に使用するために3次元モデル提供ユニット5に保存される。一例として、心臓の左心房の対応するモデル21を図2に概略的に示す。
一実施形態では、モデルは、実際の介入処置に先立つ初期化フェーズの間にUSプローブ2を使用して取得された一連のUS画像に基づいて作成される。この初期化フェーズの間、USプローブ2は、一連のUS画像において患者身体の関連領域を本質的に完全に画像化するように移動してもよい。次に、3Dモデル提供ユニット5は、特にUS画像をステッチすることによって、US画像を組み合わせることによってモデルを作成することができる。この目的のために、当業者に公知の任意のステッチ技術(stitching technique)を適用することができる。
例えば、心房細動(AF)のアブレーションにおける場合のように、患者身体の関連領域が心臓の左心房を含む場合、それは右心房から心房中隔を介して画像化され得る。この目的のために、USプローブ2は、右心房内の適切な位置に配置され、左心房が本質的に完全に画像化されるように、異なる視野角の下で左心房の一連のUS画像を取得するように操作される。これらの画像に基づいて、取得されたUS画像をステッチすることによって、左心房のモデルを3Dモデル提供ユニット5内に作成することができる。代替として、USプローブ2は、異なる視野角の下で左心房の一連の画像を取得するために、左心房内に配置されてもよい。この目的のために、経中隔穿刺は、USプローブ2と心房中隔を横切るために行うことができる。この手順では、安全な経中隔交差を可能にする十分に小さいUSプローブ2を使用することができる。完全な左心房の画像を得るために、USプローブ2は、並進、偏位(deflections)及び回転の適切な組み合わせで移動させることができる。
モデルを作成するために使用される一連の画像の取得の間に、この基準フレームにおけるモデルの位置及び向きを決定するために、任意に、USプローブ2の位置及び向きをある基準フレームに関して追跡することができる。以下にさらに説明するように、位置及び向きは、ライブUS画像をモデルにマッピングするプロセスにおいて使用されてもよい。USプローブ2の位置及び向きを追跡するために、当業者に公知の任意の適切な追跡技術を使用してもよい。このような追跡技術の例には、蛍光透視法、又はEM追跡、インピーダンス追跡、光学形状検知及び衛星ベース追跡のような適切な画像化モダリティを用いて取得された患者身体の関連領域の画像に基づく追跡が含まれる。
さらなるアプローチによれば、本明細書において以下で基準装置とも呼ばれるさらなる医療機器が、初期化フェーズ中及び実際の介入処置の間に固定された基準位置に位置決めされるとき、USプローブ2の位置及び向きは、以下でさらに説明する方法でさらなる医療機器の位置及び向きに対して追跡されてもよい。この場合、基準装置は、USプローブ2の追跡のための基準フレームを定義する。
さらなる実装において、特定の患者の関連する身体領域のモデルは、同じ身体領域に対する複数の予め生成されたモデルから選択されてもよく、これは、他の患者のために収集され、対応するライブラリに記憶されたデータに基づいて生成されてもよい。同様に、これらのモデルは、US画像データに基づいて作成されてもよい。あるいは、これらのモデルは、コンピュータ断層撮影(CT画像化)又は磁気共鳴(MR)画像化など、別の画像化モダリティの画像データに基づいて作成されてもよい。予め生成されたモデルから、患者の解剖学的構造に最もよく適合する1つのモデルが選択されてもよい。
最良のマッチングモデルの選択は、初期化フェーズの間に取得されたUS画像に基づいて再度、実行されてもよい。特に、適切な類似尺度に従って、US画像と最大の類似性を有するモデルを選択してもよい。US画像とモデルとの間の類似性は、当業者に公知の適切な手順を用いて計算され得るUS画像のセグメント化バージョンに基づいて決定することができる。類似尺度は、セグメント化されたUS画像とモデルとの間の最良の重複についての、セグメント化されたUS画像とモデルとの間の重複点の数に基づいて計算されてもよい。US画像の取得時に決定されたUSプローブ2の位置及び向きに基づいて、基準フレーム内の選択されたモデルの位置及び向きは、再度、上述のように決定されてもよい。
さらなる代替案では、3次元モデルは、USプローブ2を用いて取得されないが、別の画像化モダリティを用いて取得される関連する身体領域の画像に基づいて作成されてもよい。例えば、USプローブ2がICEプローブである場合、画像は、TEE又はTTEのような別のUS画像化モダリティを使用して取得されてもよい。同様に、例えば、コンピュータ断層撮影(CT)画像化、磁気共鳴画像(MR)画像化、又は3D回転血管造影(3DATG)などの、モデルを作成するための1つ以上の画像を取得するために、別の画像化モダリティが使用されてもよい。また、これらの実装において、例えば、利用されたUSプローブを追跡することにより、又はCT又はMR画像の既知の画像フレームに基づいて、基準フレーム内のモデルの位置及び向きを決定することができる。
さらに、関連する身体領域が、特に、関連する身体領域が心室を含む場合、介入処置の間に周期的に移動するとき、関連する身体領域の3次元モデルは、その周期的運動の1つの特別なフェーズにおいて身体領域を表すことができる。この実装では、可視化は、関連する運動フェーズに対してのみ生成されてもよい。これは、特に、関連する運動フェーズの間に取得されたライブUS画像及び位置及び/又は向き情報のみが、システムにおいて使用されることを意味する。これらのデータは、周期的運動の各サイクルにおける関連する運動フェーズの開始及び終了を示すゲート信号に基づいて選択されてもよい。
関連する身体領域が心室を含む場合、関連する運動フェーズは、心臓収縮期(systole)又は心臓拡張期(diastole)に対応し得る。ゲート信号は、例えば、心電図(ECG)信号から導出することができる。代替として、心臓の周期的運動と同期して変化する任意の他の信号を使用することができる。従って、ゲート信号は、USプローブ2及び/又は追跡される医療機器1の位置及び/又は向き情報から導出することができる。同様に、ゲート信号は、USプローブ2によって取得されたライブUS画像から導出することができる。この実施形態では、平均画素値(2次元画像の場合)又は平均ボクセル値(3次元画像の場合)又はすべての画素又はボクセル値の分散など、心臓の周期運動と同期して変化するライブUS画像の統計的特性を評価することができ、ゲート信号は、この特性の変動から導出することができる。
さらに、ゲート機構は、呼吸運動のような心臓の他の運動に対して適用することができる。この場合、心臓のモデルは、心臓の呼吸運動の特定のフェーズのために作成することができ、このフェーズの間に取得されたライブUS画像及び位置及び/又は向き情報のみが、可視化を生成するシステムに使用される。呼吸運動の関連するフェーズの発生を決定するために、システムは、例えば、循環空気流(ventilation air flow)を決定するためのセンサ及び/又は呼吸中の患者の胸壁又は腹壁の動きを決定するためのセンサのような、呼吸運動を決定するためのセンサをさらに含んでもよい。このセンサの信号に基づいて、ライブUS画像を含むデータ及び位置及び/又は向きデータは、可視化を作成するためにロック解除(呼吸運動の関連フェーズに対して)又はロック(呼吸運動の他のフェーズの間に)される。
静的モデル及び前述のゲーティングの代替として、動的モデルが使用されてもよい。このモデルは、関連する身体領域の周期的運動の各関連フェーズに対する変形サブモデルを含むことができ、各変形サブモデルでは、関連する身体領域の変化形態をモデル化する。これらのサブモデルは、運動フェーズの間の時間と共にモデルの画像部分の変位を記述するベクトル場に基づいて定義されてもよい。各運動フェーズにおいて、システムは、この運動フェーズの間に取得された追跡医療機器1のためのライブUS画像及び位置及び/又は向き情報に基づいて、可視化を生成するための関連するサブモデルを使用する。心臓の動きの異なるフェーズ及び/又は関連する身体領域の呼吸運動のために、対応するサブモデルを作成することができる。
この代替案における関連する運動フェーズを識別するために、適切なトリガ信号が使用され、これは、上述のゲート信号と同様の方法で導出することができる。患者身体の関連領域が心室を含む場合、トリガ信号は、特に、ECG信号から、又は心臓の動きと同期して変化する別の信号から再度、導出されてもよい。任意に、動的モデルは、心臓の呼吸運動の異なるフェーズに対して生成されてもよく、対応するフェーズは、呼吸運動を決定するためのセンサを用いて同定されてもよい。
上述の方法では、様々な関心領域のモデルを作成することができる。このような領域の1つは、上述したように左心房であってもよい。同様の方法で、モデルは、特に、右心房、左心室及び右心室などの他の心室、又は大動脈、肺動脈、肺静脈、下大静脈、上大静脈、冠動脈、冠静脈などの血管、又は大動脈弁、僧帽弁、三尖弁、肺弁、又は食道などの弁の解剖学的構造のために作成することができる。
USプローブ2に対する医療機器1の位置及び/又は向きを決定するための追跡構成は、医療機器1、特にその先端に取り付けられた少なくとも1つのUSセンサ6を含む。USセンサ6は、USセンサ6に入射するUS信号を検知するように構成される。この目的のために、USセンサ6は、US感受性材料のフォイルを含んでもよい。同様に、USセンサ6は、例えば、チタン酸鉛ジルコニウム酸塩(PZT:lead zirconium titanate)トランスデューサ、単結晶トランスデューサ(SXL)、容量性微細加工超音波トランスデューサ(CMUT)、又は圧電微細加工超音波トランスデューサ(PMUT)などのUSトランスデューサを含み、ここではUS信号を検知する能力のみが使用される。本システムにおける動作中、USセンサ6は、USプローブ2によって発せられたUS信号を検知する。
USセンサ6は、検知されたUS信号に基づいてUSプローブ2に対するUSセンサ6の相対位置を決定し、従って、USプローブ2に対する医療機器1の先端の相対位置を決定する追跡ユニット7に接続される。医療機器1の向きを決定するために、少なくとも1つのさらなるUSセンサ6が医療機器1に取り付けられ、追跡ユニット7はまた、さらなるUSセンサ6によって検知されたUS信号に基づいて、USプローブ2に対するさらなるUSセンサ6の相対位置を決定する。次に、USセンサ6の相対位置に基づいて、追跡ユニットは、医療機器1の向きを決定する。
1つのUSセンサ6の位置を確認するために、追跡ユニット7は、USセンサ6によって検知されたUS信号を評価し、一方、USプローブ2は、異なる方位角(azimuth angles)の下に、また、3D USプローブ2の場合、異なる仰角(elevation angles)の下に、USビームパルスを放射することによって、関心のある体積を画像化する。USプローブに対するUSセンサ6の角度位置(angular position)を決定するために、追跡ユニット7は、USセンサ6によって検知された放射されたUSビームに対する応答を比較し、方位角、及び3D USプローブ2の場合、最大応答を生じるビームが放射された仰角も決定する。決定された角度は、USプローブ2に対するUSセンサ6の相対的な角度位置を規定する。USセンサ6とUSプローブ2との間の距離は、最大応答を生成するビームの伝送時間とUSセンサ6によるビームの検知時間との間の時間遅延、すなわちビームの飛行時間に基づいて決定される。
この追跡技術の例示的な実装は、WO2011/138698A1及びその公報「2次元超音波ガイド針追跡のための新しいセンサ技術(A New Sensor Technology for 2D Ultrasound−Guided Needle Tracking)」、ファンシャン・リュ(Huanxiang Lu)他、MICCAI 2014、Part II、LNCS 8674、pp. 389−396、2014にも記載されている。本システムでは、追跡技術は、同様の方法で実施することができる。
上述のように、一実施形態では、システムは、生きたUS画像及び医療機器1の位置及び/又は向きの指示が、患者身体の関連領域のモデル上にオーバーレイされる可視化を生成する。これらの可視化は、介入処置中に医師が医療機器1を操作するのを補助するために、介入処置中にディスプレイ・ユニット4に表示される。
これらの可視化を生成するために、システムのマッピング・ユニット8は、画像形成プローブ2を用いて取得されたライブUS画像を、3Dモデル提供ユニット5によって提供される患者身体の関連領域のモデルにマッピングする。従って、マッピング・ユニット8は、ライブ画像に含まれるモデルの部分を決定する。図3aにおいて、このマッピングは、図2に示される左心房のモデル21上にマッピングされる2次元画像を取得するためのUSプローブ2の視野に対応する2次元スライス31について概略的且つ例示的に示される。図3bは、図2に示す左心房のモデル21上にマッピングされた3次元画像を取得するためのUSプローブ2の視野に対応する3次元円錐32のマッピングを概略的且つ例示的に示す。
一実装では、ライブUS画像とモデルとの比較に基づいて、ライブUS画像のモデルへのマッピングが実行される。特に、ライブUS画像とモデルとの間の画像レジストレーションが実行され、これは、US画像をモデルの一部と一致するように変換するための剛性変換の決定を含む。剛性変換(rigid transformation)は、回転(rotation)及び/又は並進(translation)
を含む。
位置合わせ(registration)手順の一実施形態では、マッピング・ユニット8は、ライブUS画像内の基準画像点を識別し、これらの画像点をモデルの対応する点にマッピングして、変換を決定することができる。基準点のマッピングは、例えば、スケール不変特徴変換(SIFT)のような公知のコンピュータ視覚技術を用いて行うことができる。あるいは、変換されたライブUS画像がモデルと最大の類似性を有するように、剛性変換を決定する位置合わせ方法を適用してもよい。このような位置合わせ手順は、ライブUS画像のセグメント化バージョンに基づいて実行することができ、それは当業者に公知の適切なセグメンテーション手順を用いて決定することができる。(変換された) US画像とモデルとの間の類似性は、例えば、上述のように、適切な類似尺度に基づいて再度、決定されてもよい。
モデルが動的モデルである場合、モデルへのライブUS画像のマッピングは、先行する運動フェーズのライブ画像における画像部分の位置に対する1つの運動フェーズにかかるライブ画像における画像部分の変位を記述する推定された動きベクトルと、動的モデルの画像部分の変位を記述する動きベクトルとをマッチングすることによっても行うことができる。
モデルへのライブUS画像のマッピングは、上述の画像位置合わせ手順のみに基づいて実行されてもよい。この場合、決定された変換は、モデルに関する、すなわち、モデルが定義された基準フレームにおけるUSプローブ2の相対位置を決定するために評価されてもよい。
加えて、又は代替として、モデルへのライブUS画像のマッピングは、上述のように、モデルの位置及び向きが基準フレームに関して決定された場合に、USプローブ2の位置及び向きに関する情報に基づいて実行してもよい。この位置及び向き情報を用いて、マッピング・ユニット8は、ライブUS画像をモデルが定義される基準フレームに変換するための剛性変換を決定し、この変換を適用することによってライブUS画像をモデルにマッピングすることができる。変換は、USプローブ2の位置及び向きに関する情報のみに基づいて決定されてもよく、又はこの情報、さらに、上述のように、ライブUS画像とモデルとの間の画像位置合わせに基づいて決定されてもよい。
この実施形態においてマッピングを実行するために、基準フレーム内のライブ画像の取得時におけるUSプローブ2の位置及び向きを決定する。これに基づき、マッピング・ユニット8は、モデルに関するUSプローブ2の視野の相対位置及び向きをさらに決定し、この情報を用いて、ライブUS画像内のUSプローブ2によってモデルのどの部分が画像化されるかを決定する。
基準フレームに関するUSプローブ2の位置及び向きの決定は、モデルの作成の記述に関連して上述した任意の追跡技術を用いて行うことができる。従って、それは、蛍光透視法のような適切な画像化モダリティを使用して取得された関連身体領域の画像に基づいて、又はEM追跡、インピーダンス追跡、光学形状検知又は衛星ベースの追跡に基づいて決定されてもよい。
さらに、上述のように、USプローブ2の位置及び向きは、モデルが作成される初期化フェーズの間及び実際の介入処置の間、基準装置が同じ固定位置に保持されるとき、基準装置に関して同様に追跡されてもよい。この実装では、基準装置の位置と向きは、モデルの基準フレームを定義する。
初期化フェーズ(モデルを作成するための)中及び介入処置(モデルの基礎の可視化を生成するための)中に基準デバイスに対するUSプローブ2の相対位置及び向きを決定するために、基準デバイスは、USセンサを備えることができ、また、USセンサによって検知されたUS信号に基づいて、USプローブ2及び基準デバイスの相対位置及び向きは、医療機器1に関連して上述したように決定される。この情報に基づいて、モデルに対するUSプローブ2の位置及び向きが決定される。
基準装置は、特に、USプローブ2の追跡のための基準位置及び向きを確立するために提供されてもよい。あるいは、基準デバイスは、介入処置中に別の機能を有するが、処置中に実質的に移動しない医療機器であってもよく、例えば、センサ電気信号のための又は刺激のための電気信号を組織に印加するための診断用EPカテーテルである。
ライブUS画像をモデルにマッピングすると、マッピング・ユニット8は、マッピングの結果に従ってライブUS画像をモデル上にオーバーレイする可視化を作成することができる。さらに、マッピング・ユニット8は、可視化において医療機器1に取り付けられたUSセンサ6の位置、すなわち、可視化に含まれるライブUS画像及びモデル中の位置にマーク付けする。マーク付けは、対応する点又は他のシンボルを可視化に配置することによって行うことができる。次いで、可視化は、システムの表示ユニット4に表示される。対応する可視化は、3次元US画像41について、図4に概略的且つ例示的に示される。図4に示す例では、医療機器1をUS画像中に示し、医療機器1の先端に取り付けられたUSセンサ6の位置を点42でマーク付けする。
可視化におけるUSセンサ6の位置にマークを付けるために、マッピング・ユニット8は、ライブUS画像及び/又はモデルに関して医療機器1に取り付けられたUSセンサ6の相対位置を決定する。
これは、追跡ユニット7において決定されるUSプローブ2に対するUSセンサ6の相対位置に基づいて、また、モデルに関してUSプローブ2を用いて取得されるUSプローブ2の相対位置又はライブUS画像に基づいて行われてもよい。これらのデータは、マッピング・ユニット8がそれに応じて可視化内にマークを配置できるように、モデルに対するUSセンサ6の相対位置を決定することを可能にする。
同様に、マッピング・ユニット8は、モデル内のUSセンサ6の位置を直接決定することができる。このことは、医療機器1の位置及び向きが上述のようにモデルの基準フレームを定義する場合に特に可能である。
一実施形態では、マッピング・ユニット8は、各可視化が、医療機器1に取り付けられたUSセンサの現在の位置、すなわち、可視化に含まれるライブUS画像の取得時の位置を、示すように可視化を生成する。従って、ディスプレイ・ユニットで可視化を見る医師は、介入処置の間、医療機器1の現在の位置及び/又は向きを容易に決定することができる。
さらなる実装において、マッピング・ユニット8は、医療機器1に取り付けられた1つ以上のUSセンサ6の以前の位置が、現在の位置に加えてマークが付けられるような方法で、可視化を生成してもよい。例として、対応する可視化が図5に示されている。この可視化において、医療機器1に取り付けられたUSセンサ6の現在の位置は、左心房のモデル21のマーク51によって示され、USセンサの以前の位置は、マーク52a〜cによって示される。
特に、可視化は、機器の先端に取り付けられたUSセンサ6の以前の位置が可視化において追加的にマークされるように、生成されてもよい。これは、医療機器1がアブレーション・カテーテルである場合に特に有用である。この場合、以前の位置は、以前のアブレーション点に対応してもよい。これらの点は、アブレーション・プロシージャの間に手動又は自動的に識別され、それらの識別に応答してマッピング・ユニット8に記憶され、その結果、それらは、後に生成された可視化においてマーク付けされ得る。加えて、アブレーション点でアブレーションに使用された電力及び持続時間などのアブレーション・パラメータ、又は病変パラメータ(lesion parameters)もマッピング・ユニット8に記憶され、可視化内のアブレーション点を識別するマークに関連して表示されてもよい。
加えて、又は、USセンサ6の以前の位置の代替として、システムは、計画された軌道に従って可視化を見る医師を支援するために、提示された可視化において医療機器1の計画された(将来の)軌道の位置をマーク付けしてもよい。
さらなる実施形態では、マッピング・ユニット8は、表示ユニット4で表示するための可視化を生成し、これは、医療機器1の先端に取り付けられたUSセンサ6の位置における仮想眼の視覚に含まれるモデルの一部を含む。仮想眼の視野は、特に、医療機器1の遠位端部の長手方向に沿って向けられ、医療機器1の前方の領域をカバーしてもよい。可視化は、3次元モデルから、また任意にライブUS画像からも生成することができる。
この実施形態では、マッピング・ユニット8は、モデル上に医療機器1の位置及び向きをマッピングする。このマッピングは、医療機器1に取り付けられた複数のUSセンサ6のモデル上へのマッピングに基づいて実行される。後者のマッピングは、直接的に、又はモデル上へのUSプローブ2の位置及び向きのマッピングに基づいて、及び上述したように、USプローブ2に対するUSセンサ6の相対位置に基づいて行われる。次に、マッピング・ユニット8は、医療機器1の位置及び方位のモデルへのマッピングに基づいて、仮想眼の視野に含まれるモデルの部分を決定し、仮想眼によって見える視野に対応する視野内にこれらの部分を含むように可視化を生成する。
加えて、マッピング・ユニット8は、US画像の変換に基づいて、USプローブ2によって取得されたライブUS画像をモデルの決定された視野にマッピングしてもよい。この目的のために、マッピング・ユニット8は、USプローブ2に対する医療機器1の相対位置及び向きに基づいて、ライブUS画像に対応する画像空間を仮想眼の視野に対応する新しい画像空間に変換するための剛性変換を決定することができる。次に、この変換をライブUS画像に適用する。その結果、マッピング・ユニット8は、変換されたライブUS画像をモデル上にオーバーレイされる可視化を生成する。
このようにして、医療機器1の先端から見た患者身体の関連領域の解剖学的構造を可視化することができる。このような可視化は、介入処置の間、医師が医療機器1を操作する際、さらに補助となり得る。この点に関して、上述の実施形態はまた、モデル上のライブUS画像のオーバーレイにおいてUSセンサの位置が6にマークされる可視化と、仮想眼によって見える視野に対応する可視化とを切り替えることができるように組み合わせることができる。
上述のシステム、特に、USユニット3、3Dモデル提供ユニット5、追跡ユニット7及びマッピング・ユニット8は、1つ以上のコンピュータ装置上で実行されるソフトウェアモジュールとして実装されてもよい。この目的のために、対応するコンピュータ・プログラムが提供され、コンピュータ装置にインストールされ、このコンピュータ・プログラムは、ユニットの機能を実行するための命令を含む。さらに、コンピュータ装置は、USプローブ2の動作を制御し、USプローブ2及びUSセンサ6によって取得されたUS信号を受信するために、特にUSプローブ2及びUSセンサ6に接続される。さらに、コンピュータ装置は、ディスプレイ・ユニット4に接続され、ディスプレイ・ユニット4を制御して、生成された可視化を上述のように表示する。
上述のシステムの実施形態では、医療機器1に取り付けられたUSセンサ6の位置が可視化においてマーク付けされている場合、又は可視化が医療機器1の先端に取り付けられたUSセンサ6の位置において仮想眼によって見られるような視野に対応する場合、患者身体の関連領域に含まれる1つの医療機器1の位置及び/又は向きに基づいて、患者身体の領域のモデル及びライブUS画像の可視化を生成することが可能である。
図6に、関連する手順のいくつかのステップをまとめる。図示のステップ61では、上述したように、初期化フェーズにおいて、患者身体の関連領域の3次元モデルが生成される。その結果、実際の介入処置の間に、USプローブ2によってライブUS画像が取得される(ステップ62)。さらに、医療機器1及びUSプローブ2に取り付けられたUSセンサ6の相対位置は、上述のように決定される(ステップ63)。これらの位置は、マッピング・ユニット8によってモデル21にマッピングされる(ステップ64)。さらに、マッピング・ユニット8は、上述したように、モデル21においてUSセンサの位置がマークされる可視化を生成する(ステップ65)。加えて、マッピング・ユニットは、USプローブによって取得されたライブUS画像をモデル21上にマッピングし(ステップ66)、生成された可視化において適宜、ライブUS画像をモデル21上にオーバーレイすることができる。
同様の方法で、患者身体の関連領域で使用される複数の医療機器1に関して対応する可視化を生成することも可能である。
関連する実施形態では、これらの医療機器1に取り付けられたUSセンサ6の位置は、
すべて可視化においてマーク付けされてもよく及び/又はマッピング・ユニット8は、異なる医療機器1の先端の位置における仮想眼によって見えるような視野に対応する可視化を生成してもよい。後者の場合、これらの可視化の間で切り替えることもできる。また、マッピング・ユニット8は、1つの医療機器1に関連する可視化において、関連する医療機器1の先端で仮想眼の視野に含まれる場合には、他の医療機器1に取り付けられたUSセンサ6の位置をマークを付けることができる。対応するマークは、仮想眼の視野上のUSセンサ6の位置のマッピングに基づいて配置されてもよい。
さらに、システムの一実施形態は、医療機器1が、心室などの患者身体の関連領域の電気解剖学的マップを生成するために使用されるEPカテーテルであることを含む。このマップは、モデルに基づいてシステムにおいて生成された前述の可視化にオーバーレイされてもよく、局所活性化時間を示す活性化マップ及び/又は局所電位図振幅を示す電圧マップを含んでもよい。EPカテーテルは、電気信号を検知し、任意で刺激信号を送出するための複数の電極を含んでもよく、検知された電気信号に基づいて、局所活性化時間及び/又は電位図の振幅が、当業者に公知の方法で決定される。活性化及び/又は電圧マップを生成するために、EPカテーテルは患者身体の関連領域内で移動し、局所測定はその領域内の異なる位置で行われる。各測定位置において、電極の位置は、上述したように、EPカテーテルに取り付けられたUSセンサ6によって検知されたUS信号に基づいて決定される。次に、局所測定の結果を組み合わせてマップを生成し、マッピング・ユニット8は、記録された位置及び向き情報に基づいて、患者身体の関連領域のモデル上にマップをオーバーレイすることができる。
さらに、生成された可視化は、蛍光透視装置を用いて取得された患者身体の関連領域の蛍光透視画像と融合され得る。
開示された実施形態に対する他の変形例は、図面、開示、及び添付特許請求の範囲の検討から、請求された発明を実施する当業者によって理解され、達成され得る。
請求項において、「含む(comprising)」という語は、他の要素又はステップを排除せず、また、不定冠詞「ひとつの(a)」又は「ひとつの(an)」は、複数の要素を排除しない。
単一のユニット又は装置は、請求項に記載されたいくつかの事項の機能を実現することができる。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせを有利に利用することができないことを示していない。
コンピュータ・プログラムは、他のハードウェアと共に、又はその一部として供給される光学記憶媒体又は固体媒体のような適切な媒体上に記憶され/配布されてもよいが、インターネット又は他の有線又は無線通信システムを介して他のフォームで配布されてもよい。
請求項中の参照符号は、範囲を限定するものと解釈してはならない。

Claims (15)

  1. 患者身体の領域において医療機器をナビゲートするときにユーザを補助するためのシステムであって、
    前記患者身体の前記領域の3次元モデルを提供するように構成された3次元モデル提供ユニットと、
    前記患者身体の前記領域の画像信号を取得するための超音波プローブ、及び前記画像信号に基づいて前記患者身体の前記領域のライブ画像を提供するように構成された超音波ユニットと、
    前記超音波プローブによって放射される超音波信号を検知するために前記医療機器に取り付けられた少なくとも1つの超音波センサと、
    前記検知された超音波信号に基づいて、前記ライブ画像及び/又は前記超音波プローブに対する前記少なくとも1つの超音波センサの相対位置を決定するように構成された追跡ユニットと、
    前記少なくとも1つの超音波センサの前記決定された相対位置を前記モデルにマッピングし、前記モデルに基づいて、且つ前記マッピングの結果に基づいて、前記患者身体の領域の可視化を生成するように構成されたマッピング・ユニットと、
    を含む、システム。
  2. 前記マッピング・ユニットは、前記少なくとも1つの超音波センサの位置がマーク付けされている前記モデルの可視化を生成するように構成される、請求項1に記載のシステム。
  3. 前記マッピング・ユニットは、前記ライブ画像を前記モデルにマッピングし、前記マッピングの結果に基づいて、前記モデルを前記可視化内の前記ライブ画像とオーバーレイするように構成される、請求項2に記載のシステム。
  4. 前記マッピング・ユニットは、前記ライブ画像と前記モデルとの画像比較に基づいて、前記ライブ画像を前記モデルにマッピングするように構成される、請求項3に記載のシステム。
  5. 前記マッピング・ユニットは、前記モデルに関連する基準フレームに対する前記超音波プローブの相対位置及び向きに基づいて、前記ライブ画像を前記モデル上にマッピングするように構成される、請求項3に記載のシステム。
  6. 前記3次元モデル提供ユニットは、さらなる超音波センサが基準位置に配置される初期化フェーズの間に、前記超音波プローブを用いて取得された超音波画像を用いて、前記モデルを作成するように構成され、前記基準フレームが、前記さらなる超音波センサによって検知された前記超音波信号に基づいて決定された前記さらなる超音波センサに対する前記超音波プローブの相対位置及び向きに基づいて画定される、請求項5に記載のシステム。
  7. 前記さらなる超音波センサは、前記ライブ画像の取得中に前記基準位置に配置され、前記マッピング・ユニットは、前記超音波プローブに対する前記さらなる超音波センサの前記相対位置及び/又は向きに基づいて、前記基準フレームに対する前記超音波プローブの前記相対位置及び向きを決定するように構成される、請求項5又は6に記載のシステム。
  8. 前記患者身体の領域は、異なる運動フェーズを有する周期的運動を受け、前記モデルは、前記運動フェーズのそれぞれについて変形サブモデルを含む動的モデルであり、前記マッピング・ユニットは、現在の運動フェーズを決定し、前記現在の運動フェーズに対して前記変形サブモデル上に前記少なくとも1つの超音波センサの前記相対位置をマッピングするように構成される、請求項1に記載のシステム。
  9. 前記医療機器は、前記患者身体の前記領域の電気解剖学的マップを生成するために電気的測定を行うように構成され、前記マッピング・ユニットは、前記測定中に前記超音波プローブに対する前記少なくとも1つの超音波センサの前記相対位置に基づいて、前記モデル上に前記電気解剖学的マップをオーバーレイするように構成される、請求項1に記載のシステム。
  10. 前記マッピング・ユニットは、前記少なくとも1つの超音波センサの前記位置に基づいて、仮想眼の視野によって見えるような視野に対応する前記モデルの可視化を生成するように構成される、請求項1に記載のシステム。
  11. 前記マッピング・ユニットは、前記マッピングの結果に基づいて、前記ライブ画像を前記視野にマッピングし、前記視野を前記可視化内の前記ライブ画像とオーバーレイするように構成される、請求項10に記載のシステム。
  12. 前記マッピング・ユニットは、前記ライブ画像及び/又は前記超音波プローブの前記位置及び向きの前記モデル上へのマッピングに基づいて、且つ前記超音波プローブに対する前記少なくとも1つの超音波センサの前記相対位置及び向きに基づいて、前記可視化を生成するように構成される、請求項10に記載のシステム。
  13. 前記超音波プローブは、超音波信号を異なる向きに放射するように構成され、前記追跡ユニットは、前記超音波センサ内の前記超音波信号の受信レベルに基づいて前記少なくとも1つの超音波センサの位置を決定するように構成され及び/又は前記追跡ユニットは、前記超音波プローブによる前記超音波信号の前記放射と前記超音波センサによる前記超音波信号の検知との間の時間差に基づいて、前記少なくとも1つの超音波センサの位置を決定するように構成される、請求項1に記載のシステム。
  14. 患者身体の領域において医療機器をナビゲートするときにユーザを補助する方法であって、
    前記患者身体の前記領域の3次元モデルを提供することと、
    超音波プローブを用いて取得した画像信号に基づいて、前記患者身体の前記領域のライブ画像を取得することと、
    前記超音波プローブに関して前記医療機器に取り付けられた少なくとも1つの超音波センサの相対位置を決定することであって、前記超音波センサは前記超音波プローブによって放射された超音波信号を検知する、相対位置を決定することと、
    前記少なくとも1つの超音波センサの前記決定された相対位置を前記モデル上にマッピングすることであって、前記モデルに基づいて、且つ前記マッピングの結果に基づいて、前記患者身体の前記領域の可視化を生成する、マッピングすることと、
    を含む、方法。
  15. コンピュータ・プログラムが、コンピュータ装置上で実行されるとき、請求項14に記載の方法を実行するように前記コンピュータ装置に命令するためのプログラム・コードを含むコンピュータ・プログラム。
JP2019554021A 2016-12-20 2017-12-20 医療機器、特に心臓カテーテルのためのナビゲーション・プラットフォーム Active JP7157074B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662436509P 2016-12-20 2016-12-20
US62/436,509 2016-12-20
EP17171529 2017-05-17
EP17171529.5 2017-05-17
PCT/EP2017/083950 WO2018115200A1 (en) 2016-12-20 2017-12-20 Navigation platform for a medical device, particularly an intracardiac catheter

Publications (2)

Publication Number Publication Date
JP2020501865A true JP2020501865A (ja) 2020-01-23
JP7157074B2 JP7157074B2 (ja) 2022-10-19

Family

ID=60957283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019554021A Active JP7157074B2 (ja) 2016-12-20 2017-12-20 医療機器、特に心臓カテーテルのためのナビゲーション・プラットフォーム

Country Status (3)

Country Link
US (1) US11628014B2 (ja)
EP (1) EP3558151B1 (ja)
JP (1) JP7157074B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10534962B2 (en) * 2017-06-17 2020-01-14 Matterport, Inc. Automated classification based on photo-realistic image/model mappings
JP2022509316A (ja) * 2018-12-03 2022-01-20 3メンシオ メディカル イメージング ビー ヴイ 腔内プローブ処置を計画するための方法、デバイス及びシステム
US20230248442A1 (en) * 2020-07-09 2023-08-10 University Of Sydney System and method for cardiac structure tracking
JP2022090787A (ja) * 2020-12-08 2022-06-20 富士フイルムヘルスケア株式会社 超音波診断システム及び操作支援方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020049375A1 (en) * 1999-05-18 2002-04-25 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
EP1245191A2 (de) * 2001-03-28 2002-10-02 Philips Corporate Intellectual Property GmbH Verfahren und bildgebendes Ultraschallsystem zur Bestimmung der Position eines Katheters
JP2006521147A (ja) * 2003-03-27 2006-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元超音波イメージングにより侵襲的医療装置を案内する方法及び装置
JP2006305361A (ja) * 2005-04-26 2006-11-09 Biosense Webster Inc 超音波システム用のビーム方向を用いたカテーテル先端部の表示

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7806829B2 (en) 1998-06-30 2010-10-05 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for navigating an ultrasound catheter to image a beating heart
US6556695B1 (en) * 1999-02-05 2003-04-29 Mayo Foundation For Medical Education And Research Method for producing high resolution real-time images, of structure and function during medical procedures
EP1312309A1 (de) 2001-11-09 2003-05-21 ZN Vision Technologies AG Verfahren zur Bestimmung der Lage eines Objekts anhand von ortsaufgelösten Bilddaten
WO2004086086A2 (en) * 2003-03-27 2004-10-07 Koninklijke Philips Electronics N.V. Guidance of invasive medical devices with combined three dimensional ultrasonic imaging system
US7713210B2 (en) 2004-11-23 2010-05-11 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for localizing an ultrasound catheter
US10143398B2 (en) * 2005-04-26 2018-12-04 Biosense Webster, Inc. Registration of ultrasound data with pre-acquired image
WO2008103383A1 (en) 2007-02-20 2008-08-28 Gildenberg Philip L Videotactic and audiotactic assisted surgical methods and procedures
DE102007059599B4 (de) 2007-12-11 2017-06-22 Siemens Healthcare Gmbh Vorrichtung für eine medizinische Intervention und Betriebsverfahren für eine Vorrichtung für eine medizinische Intervention
US9610118B2 (en) 2008-12-31 2017-04-04 St. Jude Medical, Atrial Fibrillation Division, Inc. Method and apparatus for the cancellation of motion artifacts in medical interventional navigation
EP2566394B1 (en) * 2010-05-03 2016-12-14 Koninklijke Philips N.V. Ultrasonic tracking of ultrasound transducer(s) aboard an interventional tool
CN103221148B (zh) * 2010-11-18 2016-04-13 皇家飞利浦电子股份有限公司 具有嵌在挠性箔片内的超声波换能器的医疗设备
US9717478B2 (en) 2010-12-27 2017-08-01 St. Jude Medical, Atrial Fibrillation Division, Inc. Refinement of an anatomical model using ultrasound
US20120259210A1 (en) 2011-04-11 2012-10-11 Harhen Edward P Ultrasound guided positioning of cardiac replacement valves with 3d visualization
US9592095B2 (en) 2013-05-16 2017-03-14 Intuitive Surgical Operations, Inc. Systems and methods for robotic medical system integration with external imaging
EP2807978A1 (en) * 2013-05-28 2014-12-03 Universität Bern Method and system for 3D acquisition of ultrasound images
JP6441335B2 (ja) * 2013-11-05 2018-12-19 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化
CN106061424B (zh) 2013-12-20 2019-04-30 皇家飞利浦有限公司 用于跟踪穿刺器械的系统和方法
WO2015110928A1 (en) * 2014-01-24 2015-07-30 Koninklijke Philips N.V. Virtual image with optical shape sensing device perspective
WO2016009350A1 (en) 2014-07-16 2016-01-21 Koninklijke Philips N.V. Intelligent real-time tool and anatomy visualization in 3d imaging workflows for interventional procedures
WO2016108110A1 (en) 2014-12-31 2016-07-07 Koninklijke Philips N.V. Relative position/orientation tracking and visualization between an interventional device and patient anatomical targets in image guidance systems and methods

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020049375A1 (en) * 1999-05-18 2002-04-25 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
EP1245191A2 (de) * 2001-03-28 2002-10-02 Philips Corporate Intellectual Property GmbH Verfahren und bildgebendes Ultraschallsystem zur Bestimmung der Position eines Katheters
JP2006521147A (ja) * 2003-03-27 2006-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 三次元超音波イメージングにより侵襲的医療装置を案内する方法及び装置
JP2006305361A (ja) * 2005-04-26 2006-11-09 Biosense Webster Inc 超音波システム用のビーム方向を用いたカテーテル先端部の表示

Also Published As

Publication number Publication date
US20190357987A1 (en) 2019-11-28
EP3558151A1 (en) 2019-10-30
JP7157074B2 (ja) 2022-10-19
EP3558151B1 (en) 2023-07-05
US11628014B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
JP6719885B2 (ja) 心内信号を利用した位置合わせマップ
US8428690B2 (en) Intracardiac echocardiography image reconstruction in combination with position tracking system
JP5345275B2 (ja) 超音波データと事前取得イメージの重ね合わせ
JP4795099B2 (ja) 超音波を用いた電気解剖学的地図と事前取得イメージの重ね合わせ
US8527032B2 (en) Imaging system and method of delivery of an instrument to an imaged subject
US8364242B2 (en) System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
JP5253723B2 (ja) 生理的データを使用した多様式の画像の断片化と位置合わせ
JP5265091B2 (ja) 2次元扇形超音波イメージの表示
JP5622995B2 (ja) 超音波システム用のビーム方向を用いたカテーテル先端部の表示
US20080287805A1 (en) System and method to guide an instrument through an imaged subject
JP2018171445A (ja) 二次元画像/写真を心臓の心外膜図のような3d再構成上に投影する方法
US20080287783A1 (en) System and method of tracking delivery of an imaging probe
US20060253024A1 (en) Software product for three-dimensional cardiac imaging using ultrasound contour reconstruction
BR112012013706B1 (pt) Método para o processamento de uma imagem de raios x e sistema para uma combinação de imagens de ultrassom e raios x
KR20060112241A (ko) 초음파 윤곽부 재구성을 이용한 3―차원적 심장 이미징
US7940972B2 (en) System and method of extended field of view image acquisition of an imaged subject
JP7157074B2 (ja) 医療機器、特に心臓カテーテルのためのナビゲーション・プラットフォーム
WO2018115200A1 (en) Navigation platform for a medical device, particularly an intracardiac catheter
Housden et al. X-ray fluoroscopy–echocardiography

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221006

R150 Certificate of patent or registration of utility model

Ref document number: 7157074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150