JP2019514598A - 追跡デバイス及び追跡方法 - Google Patents

追跡デバイス及び追跡方法 Download PDF

Info

Publication number
JP2019514598A
JP2019514598A JP2018558376A JP2018558376A JP2019514598A JP 2019514598 A JP2019514598 A JP 2019514598A JP 2018558376 A JP2018558376 A JP 2018558376A JP 2018558376 A JP2018558376 A JP 2018558376A JP 2019514598 A JP2019514598 A JP 2019514598A
Authority
JP
Japan
Prior art keywords
ultrasound
plane
sensor
probe
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018558376A
Other languages
English (en)
Other versions
JP2019514598A5 (ja
JP6664517B2 (ja
Inventor
バーラト,シャム
クマール ジャイン,アメート
クマール ジャイン,アメート
ヴァカ,アントニオ ボニラス
ヴァカ,アントニオ ボニラス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019514598A publication Critical patent/JP2019514598A/ja
Publication of JP2019514598A5 publication Critical patent/JP2019514598A5/ja
Application granted granted Critical
Publication of JP6664517B2 publication Critical patent/JP6664517B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • A61B2017/00238Type of minimally invasive operation
    • A61B2017/00274Prostate operation, e.g. prostatectomy, turp, bhp treatment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • A61B2090/3929Active markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8934Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration
    • G01S15/8938Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions
    • G01S15/894Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a dynamic transducer configuration using transducers mounted for mechanical movement in two dimensions by rotation about a single axis

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波センサー(S1,S2,S3,S4,...)を有する介入器具(30)は超音波イメージング・デバイス(10)を利用して追跡され、そのデバイスは、視覚化平面(18)の2D超音波画像を取得及び表示し、超音波プローブ(12)を回転させることにより、視覚化平面角を包含する平面角度範囲に関して2D超音波掃引を実行する。各々の超音波センサーに関し、その平面角度範囲における放出信号強度に基づいて最適平面が発見され、超音波プローブにより発射されるビームのタイミングの関数としてセンサー信号を分析することにより、超音波センサーはその最適平面内で位置決めされる。個々の最適平面内のこれらの位置は、平面角によりパラメータ化される変換を利用して3Dリファレンス空間へ変換され、3Dリファレンス空間内の1つ以上の超音波センサーの位置から生成される介入器具に対する空間情報(T,L)の視覚的インジケータが表示される。

Description

以下は一般に医療技術、超音波ガイド介入プロシジャ技術、前立腺生検技術等に関連する。
生検、ブラキセラピー・シード・インプランテーション、冷凍アブレーション、レーザー・アブレーション等のような超音波介入プロシジャは、ターゲット組織へ介入器具を案内するために超音波イメージングを利用する。例えば、経会陰前立腺介入(transperineal prostate intervention)では、典型的には会陰に隣接するガイダンス・グリッドに沿って、経直腸超音波(a transrectal ultrasound:TRUS)プローブを利用する超音波イメージングが、針挿入をガイドするために使用される。介入プロシジャ中に実行される超音波イメージングは、通常的には、二次元(2D)イメージングである。2D超音波画像を状況に当てはめるために、ターゲット領域についての予め取得された三次元(3D)TRUS超音波画像及び/又は3D磁気共鳴(MR)画像が使用されてもよい(Kruecker et al., “Fusion of transrectal ultrasound with pre-acquired MRI for prostate biopsy guidance”, MEDICAMUNDI 52/1 2008/07 at pages 25-31 (2008))。しかしながら、超音波における器具のコントラストは、断続的な器具の視認性により、通常的には貧弱であり、いわゆる「インビジブル・ツール(invisible tool)」現象を招く。
超音波における貧弱な器具コントラストに対処するために、専用の超音波センサーが介入器具に搭載されてもよい(Mung et al., “Tool Tracking for Ultrasound-Guided Interventions”, G. Fichtinger, A. Martel, and T. Peters (Eds.): MICCAI 2011, Part I, LNCS 6891, pp. 153‐60 (2011))。或るアプローチでは、センサーは、受信した超音波パルスを放射し直すことにより、アクティブな超音波トランスポンダとして機能する。別のアプローチでは、センサーは、超音波信号が受信される場合に電圧を出力する。何れのアプローチでも、センサーを超音波処理する超音波ビームの方向、及び超音波パルス放出とセンサー応答との間の時間間隔(タイム・オブ・フライト)の組み合わせの情報が、センサーの位置決定を可能にする。このアプローチがリアル・タイム3D-TRUS超音波イメージングとともに使用される場合、三次元空間内での位置決定が達成可能である。
しかしながら、実際は、針挿入中のライブ・ガイダンスに関して、2D超音波がより一般的に使用されている。2D超音波は高速であり、それは低コストの超音波トランスデューサ・アレイを利用して実行されることが可能であり、2D画像は、超音波デバイス・ディスプレイのビデオ・ディスプレイ・コンポーネントで容易に表示される。特に、経会陰前立腺生検プロシジャでは、施術前に取得される「3D MRデータ・セット」がターゲットの輪郭を描くために使用され、そのターゲットから生検サンプルが取得される。生検プロシジャの始めに、前立腺の根元から先端へマニュアルでTRUSプローブをスキャニングし、2D-TRUS画像フレームから再構築されることにより(或いは、前立腺の左横端から右横端へ(又はその逆向きに)、プローブ自体に平行な軸の回りにプローブを回転させることにより)、3D-TRUS画像セットが取得され、3D-TRUSは、過去に取得されたMRデータ・セットに対して位置合わせされる。その後、(前立腺プロシジャに関して)矢状方向で2D画像を取得するために、例えば、従来のブライトネス又はBモード・イメージングを利用して、生検ニードルが挿入される際のライブ2Dガイダンスを提供するために、TRUSプローブが使用される。TRUSプローブは、電磁的な(electromagnetic:EM)又はその他のTRUSプローブ空間トラッキング技術を利用して追跡され、それにより、ライブ2D超音波画像は再構築された3D-TRUS画像の対応するフレームにリンクされ、即ち、TRUS-MRレジストレーションにより、MRデータ・セットにリンクされる。
開示される一側面において、介入器具に配置される1つ以上の超音波センサーを有する介入器具を追跡するための追跡デバイスが開示される。追跡デバイスは、2次元(2D)超音波画像を取得するように構成される超音波プローブを含む超音波イメージング・デバイスと、電子プロセッサとを有する。電子プロセッサは、介入器具の追跡方法を実行するように超音波イメージング・デバイスを動作させるようにプログラムされ、追跡方法は:視覚化平面の2D超音波画像を表示するように超音波イメージング・デバイスを動作させるステップ;視覚化平面を包含する複数の平面についての2D超音波掃引を実行し、複数の平面の各2D超音波平面に関し、平面の2D超音波掃引に応答して各超音波センサーから放出される信号を検出するステップ;各超音波センサーに関し、複数の平面のうち、超音波センサーにより放出され検出された信号が最高である最適平面を識別し、最適平面における超音波センサーの位置を識別し、最適平面における超音波センサーの位置に基づく、3次元(3D)リファレンス空間内の超音波センサーの位置を識別するステップ(例えば、3D TRUS/MRI);3Dリファレンス空間における1つ以上の超音波センサーの識別された位置に基づいて、介入器具の先端位置及び方向のうち少なくとも何れかを含む介入器具の空間情報を決定するステップを含む。最適平面における超音波センサーの位置は、例えば、超音波プローブにより発射されるビームのタイミングの関数とするセンサー信号の分析に基づいて識別されてもよい。
開示される別の側面において、介入器具に配置される1つ以上の超音波センサーを有する介入器具を追跡するための追跡方法が開示される。追跡方法は:視覚化平面の2次元(2D)超音波画像を表示するように、超音波プローブを含む超音波イメージング・デバイスを動作させるステップ;視覚化平面の平面角を包含する平面角度範囲に及ぶ複数の平面をスキャンするように軸の回りに超音波プローブを回転させ、複数の平面のうちの各平面について、平面の2D超音波掃引を実行するように超音波イメージング・デバイスを動作させるステップ;各々の2D超音波掃引の間に、2D超音波掃引に応答して各超音波センサーから放出される信号を検出するステップ;各超音波センサーに関し、超音波センサーにより放出された信号が最高である最適平面を識別し、最適平面における超音波センサーを位置決めするステップ;平面角によりパラメータ化される変換を利用して最適平面における超音波センサーの位置を3次元(3D)リファレンス空間へ変換することにより、3Dリファレンス空間における各超音波センサーの位置を識別するステップ;3Dリファレンス空間における1つ以上の超音波センサーの位置に基づいて、介入器具の空間情報を決定するステップ;及び視覚化平面の表示される2D超音波画像において、介入器具に関して決定された空間情報の視覚的インジケータを表示するステップを含む。
開示される別の側面において、介入器具に配置される1つ以上の超音波センサーを有する介入器具を追跡する追跡デバイスが開示される。追跡デバイスは、電子プロセッサ及びディスプレイを含む超音波イメージング・デバイスと、超音波イメージング・デバイスに動作可能に接続可能であり、平面角により規定される平面における2次元(2D)超音波画像を取得するように超音波イメージング・デバイスの制御の下で回転可能である超音波プローブとを有する。超音波イメージング・デバイスは:視覚化平面角により規定される視角化平面の2D超音波画像を取得及び表示するステップ;視覚化平面角を包含する平面角度範囲について2D超音波掃引を実行し、2D超音波掃引の各々について、2D超音波掃引に応答して各超音波センサーから放出される信号及び平面角を保存するステップ;平面角度範囲にわたる放出された信号強度に基づいて各超音波センサーの最適平面を識別し、最適平面の2D超音波掃引の間に、超音波プローブにより発射されるビームのタイミングの関数として、センサー信号を分析することにより、最適平面における超音波センサーを位置決めするステップ;平面角によりパラメータ化される2D-to-3D変換を利用して、各自の最適平面における超音波センサーの位置を3次元(3D)リファレンス空間へ変換するステップ;及び3Dリファレンス空間における1つ以上の超音波センサーの位置から生成される、介入器具の空間情報の視覚的インジケータを、表示される2D超音波画像において表示するステップを行うようにプログラムされている。
利点の1つは、介入プロシジャの間に2Dライブ超音波イメージングを利用して3次元の介入器具情報を提供する点にある。
別の利点は、介入プロシジャの間に、より正確で信頼性の高い介入器具の追跡をもたらす点にある。
別の利点は、ライブ3D超音波イメージングを実行することが可能な超音波イメージング及び経直腸超音波(TRUS)プローブ・ハードウェアを提供するコストをかけずに、上記の利点を提供する点にある。
所与の実施形態は、上記の利点の1つ、2つ、それ以上、全てを提供してもよいし、全く提供しなくてもよく、及び/又は他の利点を提供し得ることは、本開示を閲覧及び理解する当業者にとって明らかであろう。
本発明は様々なコンポーネント、コンポーネントの配置、様々なステップ、及びステップの並びによる形態をとってよい。図面は、好ましい実施形態を説明するためのものであるに過ぎず、本発明を限定するように解釈されるべきでない。
図1は、経直腸超音波(TRUS)プローブ、その2次元(2D)画像平面、器具に沿う所定の位置に配置される超音波センサーを有する介入器具(例えば、バイオプシー・ニードル)、介入器具を案内するガイダンス・グリッドを図式的に示し、選択される測定パラメータは指定されるTRUSプローブ回転角を含む。 図2は、図1に示される軸に沿って眺めた場合の図1のTRUSプローブを示し、指定角θ=0°の視覚化平面(the visualization plane)は、グレーの破線でそれぞれ示される正又は負の角度でTRUSプローブを回転させることによりアクセスされる2つの追加的な画像平面とともに示される。 図3は、図1のデバイスを利用して介入器具の先端及び方向を決定する方法例を図式的に示す。 図4は、介入器具の長さ部分に沿って離間された位置に配置される4つのセンサーに対するTRUSプローブの角度(θ)の関数として、超音波センサー電圧を図式的にプロットしている。 図5は、補間によりデータ・ストリームを同期させる適切なアプローチを示す。 図6は、データの一貫性(data persistence)によりデータ・ストリームを同期させる適切なアプローチを示す。 図7は、介入器具の長さ部分に沿って離間した位置に配置される超音波センサーについての決定された3D位置に基づいて、及び選択的にガイダンス・グリッドにおける介入器具の既知のエントリ地点に更に基づいて、介入器具の先端及び方向を決定する様子を図式的に示す。
上述したように、事前のMR画像及び/又は再構築された3D-TRUS画像は経会陰介入をプランニングするための3Dコンテキストを提供し、2D-TRUS画像は針挿入中のライブ・ガイダンスにしばしば利用される。典型的な方位において、プローブの矢状超音波アレイがライブ・ガイダンスで使用される。この観点で撮像される平面はしばしば「矢状」平面として言及される。しかしながら、この矢状平面はTRUSプローブの矢状アレイに関するものであり、必ずしも患者の矢状平面に整合しているとは限らないことが、理解されるべきである。例えば、TRUSプローブはその軸の回りに回転させられてもよく、たとえ、撮像される矢状平面が患者の矢状平面に対して回転又は傾斜していたとしても、プロシジャは依然として「矢状画像ガイダンス」の下にあると考えられる。「矢状平面」、「矢状画像ガイダンス」等の用語は、本願で使用されるようにこの意味で理解されるべきであり、即ち、矢状平面はTRUSプローブの矢状アレイを利用して撮像される平面である。
ライブ・ガイダンス・ツールとして2D-TRUSイメージングを利用することは、暗黙に、ニードルがTRUSプローブにより撮像される矢状平面内にあることを仮定する。しかしながら、ニードル挿入中の生体構造の制約や、ニードルと組織の相互作用に起因して、挿入時にニードルが完全に矢状視角化平面内に存在することを保証することは、一般に可能なことではなく、実際には所与の矢状画像は、通常、ニードルの一部分しか含まない。これは、位置の誤差及びニードルの貧弱な視認性を招き、両者の劣化の働きは、超音波視覚化平面から遠ざかるニードルの逸脱を増やしながら増加する。ニードルは、実際上、矢状視角化平面に「投影され」、医師は身体中のニードルの3D位置及び方向に関して知らされない。
これらの問題は、3D超音波イメージングを実行することにより克服されることが可能である。しかしながら、このアプローチは、増加する可能性のある超音波イメージング機器のコストと、3D画像空間における更に複雑な(及び混乱する可能性のある)ライブの視認性(live visualization)とを含むかなりの欠点を有する。典型的には、医師は、3Dの観点からのニードル位置を視覚化することや、その他の表示される3次元空間表現ことよりも、むしろ従来の2次元矢状面を眺めることで最も親しみを感じる。
本願で開示される介入器具の追跡デバイス及び方法は、有利なことに、修正とともに、2D超音波イメージングによる矢状平面視覚化の従来アプローチを維持し、その修正は、追加的な3次元情報を取り出すために、軸の回りにTRUSプローブを回転させる能力が活用されるものである。TRUSプローブを利用する経直腸介入に関する例とともに説明されるが、開示されるアプローチは、肝臓のような他の生体構造に仕向けられた超音波ガイド介入、及び/又はブラキセラピー・シード・インプランテーション、冷凍アブレーション、レーザー・アブレーション等のようなその他のプロシジャを実行するための超音波ガイド介入で容易に利用される。
図1に関し、超音波ガイド介入システムは、(例えば、適切な接続ケーブル、及び嵌め合わせコネクタを利用して)超音波プローブ12に動作可能に接続される超音波イメージング・デバイス10を含む。図示の具体例では、超音波プローブは、患者の直腸に挿入するために採寸及び形成される経直腸超音波(TRUS)プローブ12である。そのようなTRUSプローブは、一般に、経会陰前立腺介入を実行するために使用される。TRUSプローブ12は、一般に、シリンダ状であり、従って所定の軸14を有する。超音波トランスデューサ・アレイ16は、2次元(2D)画像平面18のソニケーション(sonication)及び撮像を実行するように、シリンダ状TRUSプローブ12の側壁に配置される。ケーブルのようなステッパー・デバイス、マニュアルで動かすことが可能なフィッティング又はその他の機械的なコンポーネント、或いはステッパー・モーター20のようなステッパー・デバイスが、例えば、超音波イメージング・デバイス10の電子プロセッサ(例えば、マイクロプロセッサ、又はマイクロコントローラ)の制御の下で(但し、代替的に、その制御を実行する別個の電子プロセッサが想定されている)、軸14の回りでTRUSプローブ12を自動的に回転させられることが可能である。代替的な実施形態において、ステッパー・モーター20は省略され、ステッパー・デバイスはモーター駆動されず、その代わりにTRUSプローブ12は執刀医又はその他の手術チーム・メンバーによりマニュアルで回転させられる。軸14の回りにTRUSプローブ12を回転させることは、軸14の回りに超音波トランスデューサ・アレイ16を回転させることになり、従って画像平面は選択された角度まで回転させることが可能であり、その角度は一般性を失うことなく(画像)平面角θとして指定される。
経会陰介入プロシジャの説明例の場合、通常、ニードル挿入中のライブ・ガイダンスは矢状面の超音波イメージングを利用する。従って、ここでの例では、視覚化平面は矢状面として指定され、簡明化のため、θ=0°として指定される。他の介入プロシジャは、介入プロシジャを案内するために使用される超音波プローブの位置及び方向に相応しい異なる視覚化平面を使用してよいことが、認められるであろう。
経会陰前立腺介入は、一般に、(不図示の)前立腺の病人の会陰に隣接して配置されるガイダンス・グリッド22も使用し、介入器具30(例えば、バイオプシー・ニードル)はガイダンス・グリッド22のエントリ・ポイントを通って案内される。選択的なガイダンス・グリッド22の利用は、グリッド22のうちの指定されたエントリ・ポイントを介してバイオプシー・ニードルを次々に挿入することにより、前立腺の領域を体系的にサンプリングするための便利なツールを提供する。他の超音波ガイド介入ではグリッド22は使用されなくてもよいこと、或いは使用される場合でもターゲットの組織又は器官に依存して生体構造の何らかの他の部分に配置されてもよいことが、認められるであろう。
介入器具30は介入器具に配置される1つ以上の超音波センサーを含み;一般性を失うことなく、説明の具体例はそのような4つのセンサーS1,S2,S3,S4を含む;しかしながら、センサーの個数は1つ、2つ、3つ、例示のように4つ、5つ又はそれ以上であるとすることが可能である。この文脈で「〜に配置される(disposed with〜)」という言い回しは、器具30の表面上に配置される超音波センサー、或いは器具30の内部に配置される(例えば、器具30の内部に組み込まれる)内蔵センサーを包含する。各々の超音波センサーS1,S2,S3,S4は、超音波トランスデューサ・アレイ1616からの超音波ビームによるソニケーション(又は刺激)に応答して信号を放出する。例示の超音波センサーS1,S2,S3,S4は、ソニケーションに応答して電気信号(例えば、電圧)を生成するピエゾ電気型センサーである。そのようなセンサーは、ジルコン酸チタン酸鉛(lead zirconate titanate:PZT)及びポリフッ化ビニリデン(polyvinylidene fluoride:PCDF)共重合体の複合的な膜のような圧電材料を適切に含むが、十分に強い圧電効果を示す実質的に任意の生体適合性のある材料が、例えば電気信号レスポンスを引き出すための電極とともに使用されてよい。各々のピエゾ電気型センサーS1,S2,S3,S4は、ニードル30に固定される又はそこに(即ち、上に又は中に)配置される電気リード/トレース(不図示)を適切に含み、介入器具30の圧電センサー電圧降下を搬送する。代替的に、センサー電圧を無線で出力するために、マイクロ波送信機が圧電型センサーに一体化されてもよい。(不図示の)代替的な実施形態において、超音波センサーは、受信した超音波パルスを再放出する超音波反射センサーであってもよく、その場合、センサー信号は再放出される超音波パルスであり、その超音波パルスは、超音波反射センサーをソニケート(又は刺激)する同じ超音波トランスデューサ・アレイ16により受信されてよい。
例えば超音波プローブ12のような開示されるコンポーネントや介入器具30は単なる例示であるに過ぎず、所望の機能を実現する他のハードウェア構成が使用されてもよいことが、認められるべきである。例えば、ステッパー・モーターは、それ以外の場所に配置されてもよく、駆動軸及び選択的な歯車装置を介してTRUSプローブ12に動作可能に接続されてもよい。他のプロシジャにおいて、超音波プローブは例示のTRUSプローブ12以外のものであってもよい。
引き続き図1を参照し且つ図2を適宜参照すると、2D超音波イメージングのために、超音波トランスデューサ・アレイ16の線形アレイ、又はより一般的に、概して線状の形状因子を有する超音波トランスデューサ・アレイ16のアレイが、典型的に使用される。そのような線状の形状因子を有するトランスデューサ・アレイは、概してシリンダ状のプローブ本体の側面に好都合に取り付けられ、それにより、(例えば、シリンダ軸である)軸の回りに超音波プローブを回転させる開示のアプローチが、2D超音波ガイダンスを利用する多くの介入プロシジャに一般的に適用可能になる。図2は、軸14を見下ろしながらTRUSプローブ12の「端部(end)」の眺めを示し、どのようにして、視覚化平面(角度θ=0°)18から正の角度の方へ又は代替的に負の角度の方へ遠ざかるようにTRUSプローブ12を回転させ、その結果、θ=0°の視覚化平面18と比較して傾斜させられる2D撮像平面を探査するかを示す。一般に、そのような回転により探査される撮像平面は回転軸14を含む(或いはそれに近接して通過する)(但し、軸14はトランスデューサ・アレイ16の「背後(behind)」にあるので、例示の軸14は画像平面の視覚化部分の外側にある)。
図2に示されるように、バイオプシー・ニードル30は(一般的には)視覚化平面18内に正確には横たわっていない。その結果、4つの超音波センサーS1,S2,S3,S4のうち唯1つのセンサーS3が、視覚化平面18内にある。2つのセンサーS1,S2は視覚化平面18に対して負の角度(-θ)にある。1つのセンサーS4は視覚化平面18に対して正の角度(+θ)にある。このことは、図1において、図1の観点から見た場合に視覚化平面18の「背後」にあるニードル30の部分を破線で示すことにより、図式的に示される。これはセンサーS4を含む。
視覚化平面18内にあるセンサーS3は、次のようにして特定されることが可能である。超音波プローブ12は、平面18の2D超音波掃引を実行する。この掃引中に、超音波ビームが2D平面18を横断して掃引され、何らかの地点において、そのビームが交わり、センサーS3をソニケートする。これに応答して、圧電センサーS3は、検出されるセンサー電圧を放出する。電圧計32は、超音波センサーS3により出力されるこの電圧を検出する(より一般的には、圧電センサーは、容量又は電流の変化のような何らかの他の電気信号を出力してもよく、2D超音波掃引に応答して圧電センサーにより放出される電気信号を、電気信号ディテクタが検出する)。検出されるセンサー信号はタイム・スタンプされる。視覚化平面18内の超音波センサーS3の位置は、タイム・オブ・フライト、及び超音波センサー10から導出される超音波ビーム角度情報に基づいて決定されることが可能である。この場合、タイム・オブ・フライトは、超音波ビーム・パルスの放出とセンサー電圧の検出との間の時間間隔に対応する。この時間に、前立腺組織内での音速を乗算したものは、超音波トランスデューサ・アレイ16からの距離を与える。超音波ビーム角度に沿うその距離は、平面18内でのセンサーS3を特定する(超音波反射センサーが使用される場合、タイム・オブ・フライトは、超音波パルス放出とその場合の再放出の検出との間のエコー時間間隔であり、その時間間隔を音速に乗算したものは、超音波トランスデューサから反射センサーまでの距離の2倍であり、従って0.5の因子が適用されることに留意を要する)。応答信号は、撮像された組織からの超音波反射ではなく、センサーに起因している点を除いて、2D測位アプローチは2D輝度モード(b-mode)イメージングで使用されるものに類似していることを、当業者は認めるであろう。
面外センサーS1,S2,S4を部分的にソニケートするように、エレベーション超音波ビームが広がっている場合、2D測位アプローチは、面外センサーS1,S2,S4を検出するかもしれない。この場合、超音波ビームに応答するセンサー信号は、部分的なソニケーションに起因して弱くなるであろう;センサーが平面18から遠く離れすぎている場合、センサーは全くソニケートされず、センサーの「不可視性(invisibility)」を招く。面外センサーは、ソニケートされると、タイム・オブ・フライトにより与えられる距離において、平面18内で誤って特定されてしまうことが、認められるであろう(平面内にあると想定されてしまうからである)。この測位エラーは、視覚化平面18から遠ざかるセンサーの距離が増えるほど、大きくなる。
引き続き図1を参照し、本願で開示される実施形態において、このエラーは、三次元(3D)介入器具トラッカー40により実現される以下のアプローチにより補正される(例えば、開示されるアプローチを実行するために、トランスデューサ・アレイ16及びステッパー・モーター20を制御するように超音波イメージング・デバイス10のマイクロプロセッサ又はマイクロコントローラを適切にプログラミングし、電圧計32を読み取ることにより具現化される何らかの例において実現される)。単独の平面18についての単独の2D超音波掃引を実行する代わりに、複数の平面の(複数の)2D超音波掃引が実行される。ステッパー・モーター20の動作により、様々な平面角θが達成される。選択される複数の平面は、視覚化平面18を包含する(但し、必須ではない)。各々の2D超音波掃引の間に、2D超音波掃引に応答して各超音波センサーS1,S2,S3,S4により放出されるセンサー信号が検出される(検出される信号はヌル信号(a null signal)であるかもしれない;即ち、センサーが2D掃引の平面から遠く離れすぎている場合、検出されるセンサー信号はゼロである)。各々の超音波センサーに関し、複数の平面の中から或る最適平面が識別され、超音波センサーにより放出されるセンサー信号はその最適平面に関して最も高い。この最適平面に関し、超音波センサーは、センサーS3について既に説明したように、タイム・オブ・フライト及び超音波ビーム角度情報を利用して位置決めされる(センサーS3のケースでは、最適平面は視覚化平面18であり、なぜならセンサーS3はこの平面18内にあるからである)。そして、最適平面内の各々の超音波センサーの位置を3Dリファレンス空間に変換することにより、各々の超音波センサーS1,S2,S3,S4の位置は3次元(3D)リファレンス空間内で決定される。これは、平面角θによりパラメータ化される変換42を利用して適切に行われる。介入器具30の空間情報(先端位置及び方向)は、3Dリファレンス空間内の1つ以上の超音波センサーS1,S2,S3,S4の位置に基づいて決定される。この変換を実行する際に、超音波プローブ12の位置、特に角度θは、TRUSプローブ・トラッカー34により監視されてもよく;代替的に、その角度はステッパー・モーター20の回転エンコーディング(rotational encoding)から決定されてもよい。介入器具に対する決定された空間情報の視覚的なインジケータ(例えば、その先端位置、及び/又は方向を示すライン)が、超音波デバイス10のディスプレイ44に表示され、例えば(b-mode超音波ビデオのように)視覚化平面の表示される2D超音波画像に重ね合わせられる又はそれとともに表示される。代替的に、ニードル30の3D方向が、予め取得された及び再構築された3D-TRUS画像において、或いは予め取得された及び再構築された「3D MRIデータ・セット」において表示されてもよい。例えば現在のニードル方向を延長することにより、ニードルの軌跡の予想を空間情報が包含することも想定されている。
超音波プローブ・トラッカー34は、3Dリファレンス空間に関する超音波プローブ12の位置及び方向を追跡する。プローブ・トラッカー34は適切な任意のプローブ追跡技術を使用してよい。例えば、プローブ・トラッカー34は、電磁的なトラッキングを利用し、超音波プローブ12(の上又は中に)配置される例示的なEMセンサー35及び電磁場(EM)生成部を有してもよい。代替的に、プローブ・トラッカーは、超音波プローブ(の上又は中)に配置される光リフレクタ又はLEDsを検出する光学的なトラッキング技術を利用してもよく、或いは空間的エンコーディング・ジョイント(spatial encoding joints)を有する多重関節アームを有するロボティック・エンコーダ等を利用してもよい。
要するに、ニードル挿入中に、TRUSプローブ12は、例えばステッパー・モーター20のようなステッパー・デバイスにより、ニードル30上の全てのセンサーS1,S2,S3,S4を包含する画像平面についての或る回転範囲に関して回転させられる。各々のセンサーについて最適平面が識別され、その最適平面内での位置が判定される。そして、これらの位置は、平面角θによりパラメータ化される2D位置の変換を利用して、3Dリファレンス空間へ変換される。ニードルは、好ましくは、プローブ回転中に不動に保持される。1つのアプローチでは、ユーザー・インターフェースに「スタート」及び「ストップ」ボタンが存在することが可能であり、ユーザーは、プローブ回転の際にデータ取得の開始及び終了を指し示すためにボタンをクリックすることが可能である。以下の量がプローブ回転中に取得される:センサー電圧;2D平面におけるソニケーション・ビーム角度及びタイム・オブ・フライトに基づく2D掃引の平面内における2D追跡されるセンサー推定位置;及びTRUSプローブの回転位置(角度θ)。これらの量の各々(又はこれらの量の各サンプル)は、タイム・スタンプされる。角度θ及び2D位置のデータ・サンプルを同期させるために、補間が使用されてもよい。
典型的には、超音波センサーを介入器具30の先端に配置させることは望ましくなく、なぜなら、通常、その先端は生検、アブレーション・プロシジャ等を実行するための機能装置を包む又は組み込んでいるからである。従って、適切なアプローチにおいて、センサーS1,S2,S3,S4はニードル30に沿う所定の(即ち、既知の)位置を有し、また、センサーのこれらの既知の位置に対する先端位置は、予め決まっており(既知であり)、従ってニードル30上の追跡されるセンサーS1,S2,S3,S4の3D位置から取得されることが可能である。一般に、ニードル30に沿う少なくとも2つの超音波センサーが、その方向を決定するために必要とされるが;ガイダンス・グリッド22が使用されるならば、決定される方向の第2位置は、ガイダンス・グリッド22の所定の(既知の)エントリ・ポイントであってもよく、そのエントリ・ポイントを通って介入器具30が案内される。
図3を参照すると、図1のデバイスを利用して介入器具の先端及び方向の例示的な決定方法が記載されている。オペレーション50において、2D超音波掃引が、視覚化平面18を包含する角度範囲にわたって実行され、平面角θ及びセンサー電圧がタイム・スタンプされた値として記録される。角度範囲は、好ましくは、ニードル30上の超音波センサーS1,S2,S3,S4のうちの全部又は殆どについての可能性のある位置を包含するように選択される。
引き続き図3を参照し且つ図4を更に参照すると、オペレーション52において、各センサーについて最適平面が識別される。この最適平面は、2D超音波掃引が最大のセンサー信号をもたらす平面である。図4は、平面角θ(即ち、TRUSプローブ12の角度位置)の関数としてセンサー電圧をプロットすることにより、このオペレーション52を示す。図4は、様々な任意の電圧オフセットを有するセンサーをプロットし、それにより、4つのセンサーS1,S2,S3,S4に関する4つのカーブが間隔を空けている点に留意を要する。各センサーに関し、電圧−対−角度のプロットにおいてピークが観測され、このピークに対応する平面角が、そのセンサーに対する最適平面角である(及び最適平面を指示する)。図1及び図2の例に関し、センサーS3は視覚化平面18内にあり、そのため、この例では角度θ3=0である点に留意を要する。引き続き図3を参照すると、オペレーション54において、最適平面における各センサーの2D位置が決定される。これは、最適平面の2D超音波掃引の際に、最適平面内のセンサーに関して収集されるタイム・オブ・フライト及び超音波ビーム角度情報を利用して実行されてよい。
この時点で、各センサーについて収集された2つの情報が存在し;それらは、最適平面(θ)、及びここではp(x,y)として示される最適平面内での2D位置である。例示の具体例において、これら2つの情報は異なるソースから到来し;最適平面はTRUSプローブ・トラッカー34により測定され;一方、その平面内の位置p(x,y)は超音波デバイス10及び電圧計32を利用して決定される。これらの値は、例えば補間により、オペレーション56において同期化される。或る適切な同期アプローチにおいて、データ・ストリームは、(例えば、超音波イメージング・デバイス10の電子機器のような)共通するコンピュータで取得及び保存される。従って、システム・クロックは、データを調整/解釈するために使用されることが可能である。パーシステンス(Persistence)又は補間が、(通常的にはp(x,y)である)より低い取得レートで取得されるデータ・ストリーム中で欠落しているデータを「充填(fill in)」するために使用され、そして、(通常的にはTRUSプローブ角θである)より高いデータ・フレームで取得されるデータ・ストリームに時間的に合わせられる。同期させられたデータ・ストリームは、以後、ニードルの3D方向を推定するために組み合わせられることが可能である。
手短に図5を参照しながら、同期オペレーション56を実行するための例示的な補間アプローチが説明される。図5はタイム・スタンプ(「時間」というラベルが付された列)と、2Dセンサー位置(「ニードル追跡データ」というラベルが付された列)と、平面角θ(「プローブ追跡データ」というラベルが付された列)とを示す。補間を説明するために、時間インスタンスT4において、ニードル追跡及びプローブ追跡データの双方において欠落したエントリが存在するものと考える。欠落しているデータは、現在の時点T4の直前及び直後のデータの重み付け平均を利用して補間されてもよい。ニードル追跡データに関し、これは、例えば(a4X1+b4X2,a4Y1+b4Y2)のように(X1,Y1)及び(X2,Y2)を補間することになり、この場合において、ウェイトa4及びb4に対する可能な値は、a4=(T6-T4)/(T6-T3)及びb4=(T4-T3)/(T6-T3)である。同様に、c4=(T5-T4)/(T5-T3)及びd4=(T4-T3)/(T5-T3)である。本方法は或る時間遅延とともに実行されなければならず、なぜなら補間のために欠落しているエントリ前後のデータを利用するからである。
図6を概観すると、同期オペレーション56を実行するための代替例において、ストリームに関する次のデータ点が到着するまで、最後のデータが維持されることが可能である。この技術は、如何なる時間遅延もなくリアル・タイムに実行されることが可能であるが、図5の補間アプローチと比較すると、若干の精度劣化を被るかもしれない。
図3に戻り、オペレーション60において、各センサーの2D位置は、平面角θによりパラメータ化される2D-3D変換を利用して、3Dリファレンス空間に変換される。「パラメータ化される」ことにより、これは、変換42が平面角θに依存することを意味し、或いは言い換えれば、変換42は、P(x,y,z)=Tprobe,θ×p(x,y)に従って、3Dリファレンス空間における超音波センサーの位置P(x,y,z)を識別するように動作することを意味し、この場合において、Tprobe,θは変換42であり、p(x,y)は最適平面内での位置である。変換42の正確な形式は、3Dリファレンス空間の選択又は定義に依存する。一実施例において、変換42は次式のように表現される:
Figure 2019514598
ここで、TUS EMは、最適な2D-US画像平面から、超音波プローブ12に取り付けられているEMセンサー35への変換である(EM追跡システムのUSプローブ・キャリブレーションにより利用可能である)。USプローブ・キャリブレーションは、典型的には、プローブ位置から独立しており、且つ予め算出されるレジストレーション・マトリクスである。別の変換TEM,θ FGは、超音波プローブ12におけるEMセンサー35から、TRUSプローブ・トラッカー34のEMフィールド生成部(FG)への変換であり、3Dリファレンス空間の座標系を設定する。この変換TEM,θ FGは最適平面角θの関数である。より一般的には、別のプローブ・トラッキング技術が使用される場合に、変換TEM,θ FGは、そのトラッカーの3Dリファレンス空間の座標系への適切な変換により置換される。
引き続き図3を参照し、更に図7を参照すると、オペレーション62において、介入器具30の空間情報(例えば、器具の先端位置及び方向)が、3Dセンサー位置P(x,y,z)、既知のセンサー間隔、及びセンサーと先端との間の間隔に基づいて決定される。或る変形実施形態では、この決定はガイダンス・グリッド22の所定の(既知の)エントリ・ポイントにも基づいており、そのガイダンス・グリッド22を経由して介入器具30が案内される。図7は、プロットされた各センサーS1,S2,S3,S4の位置P(x,y,z)とともに3Dリファレンス空間を示すことにより、本アプローチを示す。介入器具30が通るガイダンス・グリッド22のエントリ・ポイントは、ポイントEとしてプロットされている。ニードル30の方向は、これらの複数のポイントを通るラインLとしてプロットされており、そのラインは線形回帰により適切に決定される。介入器具30の先端の先端位置Tは、最も適合するラインLに沿って測定される4つのセンサーS1,S2,S3,S4に関する「既知の先端からセンサーまでの間隔」(the known tip−to−sensor spacings)により適切に決定される。4つのセンサーS1,S2,S3,S4の各々に関する「先端からセンサーまでの距離」から決定される先端位置は、より高い精度を提供するために平均化されてもよい。
例示の実施形態において、ステッパー・モーター20は、軸14の回りに超音波プローブ12を回転させるように構成される。想定される別の実施形態では、ステッパー・モーターは、2D視覚化平面を横切る直線方向に沿って(即ち、視覚化平面に垂直に)超音波プローブを並進させるように構成され、その場合、視覚化平面を包含する複数の平面は、一群の平行な平面となる。
本発明は好ましい実施形態を参照しながら説明されてきた。修正及び代替は、上記の詳細な説明を閲覧及び理解した者には把握されるであろう。本発明は、それらが添付の特許請求の範囲及び均等の範囲に由来する限り、そのような全ての修正及び代替を包含するように考えられることが意図される。

Claims (20)

1つ以上の超音波センサーを配置した介入器具を追跡する追跡デバイスであって:
2次元(2D)超音波画像を取得するように構成される超音波プローブを含む超音波イメージング・デバイス;及び
介入器具の追跡方法を実行するように前記超音波イメージング・デバイスを動作させるようにプログラムされる電子プロセッサ;
を有し、前記追跡方法は:
視覚化平面の2D超音波画像を表示するように前記超音波イメージング・デバイスを動作させるステップ;
前記視覚化平面を包含する複数の平面の2D超音波掃引を実行し、前記複数の平面の各2D超音波掃引に関し、前記平面の前記2D超音波掃引に応答して各超音波センサーから放出される信号を検出するステップ;
各超音波センサーに関し、前記複数の平面のうち、前記超音波センサーにより放出され検出された信号が最高である最適平面と、前記最適平面における前記超音波センサーの位置と、前記最適平面における前記超音波センサーの位置に基づく、3次元(3D)リファレンス空間内の超音波センサーの位置とを識別するステップ;及び
前記3Dリファレンス空間における1つ以上の超音波センサーの識別された位置に基づいて、前記介入器具の先端位置及び方向のうち少なくとも何れかを含む前記介入器具の空間情報を決定するステップ;
を含む、追跡デバイス。
軸の回りに前記超音波プローブを回転させるように接続されるステッパー・デバイスであって、前記ステッパー・デバイスにより制御される平面角を有する平面で前記2D超音波画像を取得する、ステッパー・デバイス;
を更に有し、前記複数の平面は、前記視覚化平面の平面角を包含する平面角度範囲に及んでいる、請求項1に記載の追跡デバイス。
前記超音波プローブは、経直腸超音波(TRUS)プローブである、請求項2に記載の追跡デバイス。
会陰に隣接して配置されるように構成されるガイダンス・グリッドであって、前記ガイダンス・グリッドのエントリ・ポイントを介して前記介入器具をガイドするように構成されるガイダンス・グリッド;
を更に有し、前記電子プロセッサは、前記介入器具を案内する前記ガイダンス・グリッドの前記エントリ・ポイントの前記3Dリファレンス空間における位置に更に基づいて、前記介入器具の前記空間情報を決定する、請求項2に記載の追跡デバイス。
前記超音波プローブの前記3Dリファレンス空間における位置を追跡するように構成される超音波プローブ・トラッカー;
を更に有し、前記3Dリファレンス空間における前記超音波センサーの位置P(x,y,z)が、P(x,y,z)=Tprobe,θ×p(x,y)のように同定され、p(x,y)は前記最適平面における前記超音波センサーの位置であり、Tprobe,θは、前記プローブの追跡された位置及び前記最適平面のパラメータに依存する、前記最適平面から前記3Dリファレンス空間への変換である、請求項1ないし4のうちの何れか一項に記載の追跡デバイス。
前記介入器具に配置される前記超音波センサーは圧電センサーであり、前記追跡デバイスは:
前記2D超音波掃引に応答して各圧電センサーにより放出される電気信号を検出するように構成される電気信号ディテクタ;
を更に有し、前記電子プロセッサは、前記2D超音波掃引に応答して各圧電センサーにより放出される前記電気信号を検出するために前記電気信号ディテクタを利用して前記検出するステップを実行する、請求項1ないし5のうちの何れか一項に記載の追跡デバイス。
前記介入器具に配置される前記超音波センサーは、受信した超音波パルスを再放射する超音波反射センサーであり、前記電子プロセッサは、前記2D超音波掃引に応答して各圧電センサーにより放出される再放射超音波パルスを検出するために前記超音波プローブを利用して前記検出するステップを実行する、請求項1ないし5のうちの何れか一項に記載の追跡デバイス。
前記電子プロセッサは、前記超音波プローブにより発射されるビームのタイミングの関数として、前記センサー信号を分析することに基づいて、前記最適平面における前記超音波センサーの前記位置を識別する、請求項1ないし7のうちの何れか一項に記載の追跡デバイス。
前記電子プロセッサは、前記超音波センサーの前記位置を、タイム・スタンプされたサンプルとして識別し、前記最適平面のパラメータをタイム・スタンプされたサンプルとして識別し、前記電子プロセッサは、更に、前記超音波センサーの前記位置の前記タイム・サンプルされたサンプルと、前記最適平面の前記パラメータの前記タイム・サンプルされたサンプルとを、補間により同期させる、請求項1ないし8のうちの何れか一項に記載の追跡デバイス。
前記電子プロセッサにより実行される前記介入器具の追跡方法は、前記視覚化平面の表示される2D超音波画像上に、前記介入器具に対する決定された空間情報の視覚的インジケータを表示するステップを更に含む、請求項1ないし9のうち何れか一項に記載の追跡デバイス。
1つ以上の超音波センサーを配置した介入器具を追跡する追跡方法であって:
視覚化平面の2D超音波画像を表示するように、超音波プローブを含む超音波イメージング・デバイスを動作させるステップ;
前記視覚化平面の平面角を包含する平面角度範囲に及ぶ複数の平面をスキャンするように軸の回りに前記超音波プローブを回転させ、前記複数の平面の各平面について、前記平面の2D超音波掃引を実行するように前記超音波イメージング・デバイスを動作させるステップ;
各々の2D超音波掃引の間に、前記2D超音波掃引に応答して各超音波センサーから放出される信号を検出するステップ;
各超音波センサーに関し、前記超音波センサーにより放出された信号が最高である最適平面を識別し、前記最適平面における前記超音波センサーを位置決めするステップ;
平面角によりパラメータ化される変換を利用して前記最適平面における前記超音波センサーの位置を3次元(3D)リファレンス空間へ変換することにより、前記3Dリファレンス空間における各超音波センサーの位置を識別するステップ;
前記3Dリファレンス空間における1つ以上の超音波センサーの位置に基づいて、前記介入器具の空間情報を決定するステップ;及び
前記視覚化平面の表示される2D超音波画像において、前記介入器具に関して決定された前記空間情報の視覚的インジケータを表示するステップ;
を有する追跡方法。
前記超音波プローブは、経直腸超音波(TRUS)プローブであり、前記視覚化平面は前記TRUSプローブの矢状面である、請求項11に記載の追跡方法。
前記介入器具の前記空間情報は、前記介入器具がガイダンス・グリッドを通る、前記3Dリファレンス空間における位置に更に基づいて決定される、請求項12に記載の追跡方法。
前記介入器具に配置される前記超音波センサーは圧電センサーであり、前記2D超音波掃引に応答して各超音波センサーにより放出される信号を検出するオペレーションは、前記2D超音波掃引に応答して前記圧電センサーにより生成されるセンサー電圧を検出することを含む、請求項11ないし13のうちの何れか一項に記載の追跡方法。
前記最適平面における前記超音波センサーを位置決めするステップは、前記超音波プローブにより発射されるビームのタイミングの関数として、前記センサー信号を分析することに基づいて、前記最適平面における前記超音波センサーを位置決めするステップを含む、請求項11ないし14のうちの何れか一項に記載の追跡方法。
超音波プローブ・トラッカーを利用して前記平面角のタイム・スタンプされたサンプルを生成するステップ;
各自の最適平面における前記超音波センサーの位置にタイム・スタンプを割り振るステップ;及び
各自の最適平面における前記超音波センサーのタイム・スタンプされた位置と、前記平面角のタイム・スタンプされたサンプルとを、補間により同期させるステップ;
を更に有する請求項11ないし15のうちの何れか一項に記載の追跡方法。
1つ以上の超音波センサーを配置した介入器具を追跡する追跡デバイスであって:
電子プロセッサ及びディスプレイを含む超音波イメージング・デバイス;及び
前記超音波イメージング・デバイスに動作可能に接続可能であり、平面角により規定される平面における2次元(2D)超音波画像を取得するように前記超音波イメージング・デバイスの制御の下で回転可能である超音波プローブ;
を有し、前記超音波イメージング・デバイスは:
視覚化平面角により規定される視角化平面の2D超音波画像を取得及び表示するステップ;
前記視覚化平面角を包含する平面角度範囲について2D超音波掃引を実行し、2D超音波掃引の各々について、前記2D超音波掃引に応答して各超音波センサーから放出される信号及び前記視覚化平面角を保存するステップ;
前記平面角度範囲にわたる放出された信号強度に基づいて各超音波センサーの最適平面を識別し、前記最適平面の前記2D超音波掃引の間に、前記超音波プローブにより発射されるビームのタイミングの関数として、前記センサー信号を分析することにより、前記最適平面における前記超音波センサーを位置決めするステップ;
平面角によりパラメータ化される2D-3D変換を利用して、各自の最適平面における前記超音波センサーの位置を3次元(3D)リファレンス空間へ変換するステップ;及び
前記3Dリファレンス空間における1つ以上の超音波センサーの位置から生成される、前記介入器具の空間情報の視覚的インジケータを、表示される2D超音波画像において表示するステップ;
を行うようにプログラムされている、追跡デバイス。
前記超音波プローブは、経直腸超音波(TRUS)プローブである、請求項17に記載の追跡デバイス。
前記介入器具に配置される前記超音波センサーは圧電センサーであり、各々の超音波センサーにより生成される前記信号は電気信号を含む、請求項17又は18に記載の追跡デバイス。
前記超音波イメージング・デバイスは、各自の最適平面における前記超音波センサーの位置と、前記2D超音波掃引に関して保存された平面角とを、補間又はデータの維持により同期させる、請求項17ないし19のうち何れか一項に記載の追跡デバイス。
JP2018558376A 2016-05-10 2017-04-27 追跡デバイス Active JP6664517B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662334006P 2016-05-10 2016-05-10
US62/334,006 2016-05-10
PCT/EP2017/060019 WO2017194314A1 (en) 2016-05-10 2017-04-27 3d tracking of an interventional instrument in 2d ultrasound guided interventions

Publications (3)

Publication Number Publication Date
JP2019514598A true JP2019514598A (ja) 2019-06-06
JP2019514598A5 JP2019514598A5 (ja) 2020-01-16
JP6664517B2 JP6664517B2 (ja) 2020-03-13

Family

ID=58640881

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018558376A Active JP6664517B2 (ja) 2016-05-10 2017-04-27 追跡デバイス

Country Status (5)

Country Link
US (1) US11653893B2 (ja)
EP (1) EP3454757B1 (ja)
JP (1) JP6664517B2 (ja)
CN (1) CN109152565B (ja)
WO (1) WO2017194314A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022534449A (ja) * 2019-08-15 2022-07-29 コーニンクレッカ フィリップス エヌ ヴェ 超音波ベースの装置位置特定
JP2022534450A (ja) * 2019-08-15 2022-07-29 コーニンクレッカ フィリップス エヌ ヴェ 操縦可能な多平面超音波撮像システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7089521B2 (ja) * 2016-12-21 2022-06-22 コーニンクレッカ フィリップス エヌ ヴェ 高速且つ自動化された超音波プローブ校正のためのシステム及び方法
JP2021527465A (ja) * 2018-06-15 2021-10-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 複数の介入医療装置の同期追跡
WO2020038758A1 (en) * 2018-08-22 2020-02-27 Koninklijke Philips N.V. 3d tracking of interventional medical devices
EP3880103A4 (en) * 2018-11-18 2022-12-21 Trig Medical Ltd. SPATIAL REGISTRATION METHOD FOR IMAGING DEVICES
US10849696B2 (en) * 2019-03-01 2020-12-01 Biosense Webster (Israel) Ltd. Map of body cavity
US20220225959A1 (en) * 2019-05-30 2022-07-21 Koninklijke Philips N.V. Relative location determining for passive ultrasound sensors
CN111486804B (zh) * 2020-06-15 2021-10-08 东莞职业技术学院 用于精密部件厚度测量的信号处理方法及测量方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02206449A (ja) * 1989-02-06 1990-08-16 Aloka Co Ltd 超音波診断装置
JPH06205776A (ja) * 1993-01-11 1994-07-26 Toshiba Corp 超音波診断装置
JP2006320463A (ja) * 2005-05-18 2006-11-30 Hitachi Medical Corp 治療装置
JP2013220132A (ja) * 2012-04-13 2013-10-28 Ge Medical Systems Global Technology Co Llc 穿刺計画支援装置、医用画像装置及び超音波診断装置
JP2017510357A (ja) * 2014-04-11 2017-04-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. センサを備える針のための自動構成検出

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993013705A1 (en) * 1992-01-11 1993-07-22 Paul Toleman Tonometer
US6019724A (en) * 1995-02-22 2000-02-01 Gronningsaeter; Aage Method for ultrasound guidance during clinical procedures
DE10115341A1 (de) * 2001-03-28 2002-10-02 Philips Corp Intellectual Pty Verfahren und bildgebendes Ultraschallsystem zur Besimmung der Position eines Katheters
WO2006089426A1 (en) * 2005-02-28 2006-08-31 Robarts Research Institute System and method for performing a biopsy of a target volume and a computing device for planning the same
US20090306509A1 (en) * 2005-03-30 2009-12-10 Worcester Polytechnic Institute Free-hand three-dimensional ultrasound diagnostic imaging with position and angle determination sensors
WO2008042423A2 (en) * 2006-10-02 2008-04-10 Hansen Medical, Inc. Systems for three-dimensional ultrasound mapping
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
JP2010125118A (ja) * 2008-11-28 2010-06-10 Toshiba Corp 超音波診断装置及び超音波診断装置制御方法
US8948476B2 (en) * 2010-12-20 2015-02-03 St. Jude Medical, Atrial Fibrillation Division, Inc. Determination of cardiac geometry responsive to doppler based imaging of blood flow characteristics
US9895135B2 (en) * 2009-05-20 2018-02-20 Analogic Canada Corporation Freehand ultrasound imaging systems and methods providing position quality feedback
US8861822B2 (en) 2010-04-07 2014-10-14 Fujifilm Sonosite, Inc. Systems and methods for enhanced imaging of objects within an image
EP2566394B1 (en) * 2010-05-03 2016-12-14 Koninklijke Philips N.V. Ultrasonic tracking of ultrasound transducer(s) aboard an interventional tool
JP6014049B2 (ja) 2011-01-17 2016-10-25 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像ガイド下生検における針展開検出のためのシステム及びその作動方法
CN102727257B (zh) 2011-03-31 2016-08-03 通用电气公司 穿刺针可视化方法和装置
US20120289836A1 (en) * 2011-05-12 2012-11-15 Osamu Ukimura Automatic real-time display system for the orientation and location of an ultrasound tomogram in a three-dimensional organ model
JP5929368B2 (ja) 2012-03-16 2016-06-01 コニカミノルタ株式会社 超音波画像診断装置
US9636083B2 (en) * 2012-07-17 2017-05-02 The Johns Hopkins University High quality closed-loop ultrasound imaging system
CN202995013U (zh) * 2012-10-30 2013-06-12 清华大学 一种三维中频强磁场测量探头
CN203069158U (zh) * 2012-12-31 2013-07-17 河海大学 一种基于传感器的高坝变形快速定位系统
CN105407969B (zh) * 2013-06-28 2019-04-05 皇家飞利浦有限公司 用于图像引导超声溶栓的换能器放置和配准
EP3013227B1 (en) * 2013-06-28 2022-08-10 Koninklijke Philips N.V. Scanner independent tracking of interventional instruments
JP6563920B2 (ja) * 2013-07-23 2019-08-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 体の構造の位置を特定するための方法及びシステム
EP3049152B1 (en) 2013-09-19 2017-05-17 Koninklijke Philips N.V. High-dose rate brachytherapy system
EP3091907A1 (en) * 2014-01-02 2016-11-16 Koninklijke Philips N.V. Ultrasound navigation/tissue characterization combination
JP2015139576A (ja) 2014-01-29 2015-08-03 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 超音波診断装置及びプログラム
CN106456253B (zh) * 2014-05-16 2019-08-16 皇家飞利浦有限公司 免于重建的自动多模态超声配准
CN104166127B (zh) * 2014-06-12 2016-06-22 中国人民解放军海军航空工程学院 一种多波束交错投影与多假设抛物线Hough变换的高速滑跃式目标积累检测方法
JP6878267B2 (ja) 2014-07-14 2021-05-26 モメンティブ パフォーマンス マテリアルズ インコーポレイテッドMomentive Performance Materials Inc. 低着色および色安定なイソシアネートオルガノシランの製造プロセスおよびそれにより得られる生成物
US11298192B2 (en) * 2014-07-16 2022-04-12 Koninklijke Philips N.V. Intelligent real-time tool and anatomy visualization in 3D imaging workflows for interventional procedures
US9675317B2 (en) * 2014-12-22 2017-06-13 Toshiba Medical Systems Corporation Interface identification apparatus and method
US10849650B2 (en) * 2015-07-07 2020-12-01 Eigen Health Services, Llc Transperineal needle guidance
CN205006920U (zh) * 2015-09-02 2016-02-03 上海爱声生物医疗科技有限公司 一种人体体内的超声诊断仪及换能器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02206449A (ja) * 1989-02-06 1990-08-16 Aloka Co Ltd 超音波診断装置
JPH06205776A (ja) * 1993-01-11 1994-07-26 Toshiba Corp 超音波診断装置
JP2006320463A (ja) * 2005-05-18 2006-11-30 Hitachi Medical Corp 治療装置
JP2013220132A (ja) * 2012-04-13 2013-10-28 Ge Medical Systems Global Technology Co Llc 穿刺計画支援装置、医用画像装置及び超音波診断装置
JP2017510357A (ja) * 2014-04-11 2017-04-13 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. センサを備える針のための自動構成検出

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022534449A (ja) * 2019-08-15 2022-07-29 コーニンクレッカ フィリップス エヌ ヴェ 超音波ベースの装置位置特定
JP2022534450A (ja) * 2019-08-15 2022-07-29 コーニンクレッカ フィリップス エヌ ヴェ 操縦可能な多平面超音波撮像システム
JP7177965B2 (ja) 2019-08-15 2022-11-24 コーニンクレッカ フィリップス エヌ ヴェ 操縦可能な多平面超音波撮像システム
JP7345631B2 (ja) 2019-08-15 2023-09-15 コーニンクレッカ フィリップス エヌ ヴェ 超音波ベースの装置位置特定

Also Published As

Publication number Publication date
EP3454757B1 (en) 2020-06-10
WO2017194314A1 (en) 2017-11-16
CN109152565A (zh) 2019-01-04
US20190159752A1 (en) 2019-05-30
US11653893B2 (en) 2023-05-23
EP3454757A1 (en) 2019-03-20
CN109152565B (zh) 2022-11-04
JP6664517B2 (ja) 2020-03-13

Similar Documents

Publication Publication Date Title
JP6664517B2 (ja) 追跡デバイス
CN107920861B (zh) 用于确定运动关系的装置
EP0946886B1 (en) Apparatus and method for visualizing ultrasonic images
JP7089521B2 (ja) 高速且つ自動化された超音波プローブ校正のためのシステム及び方法
JP4758355B2 (ja) 患者の体内に医療用機器を案内するためのシステム
US8428691B2 (en) Method and apparatus for localizing an ultrasound catheter
US20080234570A1 (en) System For Guiding a Medical Instrument in a Patient Body
EP1953564A2 (en) Correlation of ultrasound images and gated position measurements
KR20080071919A (ko) 향상된 정확도를 갖는 초음파 카테터 교정 장치 및 방법
CN1668254A (zh) 医疗设备定位系统和方法
US11071518B2 (en) Imaging apparatus for biopsy or brachytherapy
EP3968861B1 (en) Ultrasound system and method for tracking movement of an object
US20190219693A1 (en) 3-D US Volume From 2-D Images From Freehand Rotation and/or Translation of Ultrasound Probe
EP3738515A1 (en) Ultrasound system and method for tracking movement of an object
JP4119530B2 (ja) 内視鏡装置および内視鏡に挿通する位置検出カテーテル
JP4198130B2 (ja) 超音波診断装置
Onogi et al. An accurate calibration method of ultrasound images by center positions of a metal ball
US20220087648A1 (en) 3-D Endocavity Ultrasound Probe with a Needle Guide
Kynor et al. Tissue localization using endoscopic laser projection for image-guided surgery
KR20110078279A (ko) 다중 의료용 영상 시스템에 적용 가능한 기준 표식 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200218

R150 Certificate of patent or registration of utility model

Ref document number: 6664517

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250