JP2016530978A - 介入ツールの音響3dトラッキング - Google Patents

介入ツールの音響3dトラッキング Download PDF

Info

Publication number
JP2016530978A
JP2016530978A JP2016543475A JP2016543475A JP2016530978A JP 2016530978 A JP2016530978 A JP 2016530978A JP 2016543475 A JP2016543475 A JP 2016543475A JP 2016543475 A JP2016543475 A JP 2016543475A JP 2016530978 A JP2016530978 A JP 2016530978A
Authority
JP
Japan
Prior art keywords
acoustic
waveform
image plane
detection waveform
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016543475A
Other languages
English (en)
Other versions
JP2016530978A5 (ja
JP6253787B2 (ja
Inventor
アミート クマール ジャイン
アミート クマール ジャイン
フランソワ ギ ジェラール マリー ヴィニョン
フランソワ ギ ジェラール マリー ヴィニョン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016530978A publication Critical patent/JP2016530978A/ja
Publication of JP2016530978A5 publication Critical patent/JP2016530978A5/ja
Application granted granted Critical
Publication of JP6253787B2 publication Critical patent/JP6253787B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4494Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3925Markers, e.g. radio-opaque or breast lesions markers ultrasonic
    • A61B2090/3929Active markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4488Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

介入ツール50(例えば、針又はカテーテルの遠位端に付けられるか、又は遠位端に埋め込まれる音響センサ)に対する、二つ又はそれより多くの音響センサ20、21の空間アライメントに基づいて介入ツール50をトラッキングするシステム及び方法。 本方法は、音響画像平面11を生成するために音響イメージングデバイス10(例えば、線形又は曲線形の、1Dアレイを有する、2D超音波プローブ)を動作させるステップと、音響ビームアレイの音響検出から導出される合成音響検出波形40、41を出力するために各々の音響センサ20、21を動作させるステップを含み得る。各々の合成音響検出波形40、41は、音響ビーム検出波形のアレイ30、31、32を含み得る。本方法は、合成音響検出波形40、41の波形プロファイル分析から導出される音響画像平面11に対する、介入ツール50の位置をトラッキングするためにトラッキングワークステーション70を動作させるステップを更に含み得る。

Description

本発明は概して、音響イメージングデバイス(例えば、一次元の(「1D」)トランスデューサアレイを有する二次元の(「2D」)超音波プローブ)によって生成される音響画像平面に対する、介入ツール(例えば、針、カテーテルなど)の相対位置の3次元(「3D」)トラッキングに関する。本発明は特に、音響画像平面に対する、介入ツールの相対位置トラッキングを容易化するために、音響画像平面の音響検出から導出される合成音響検出波形を出力するように、(例えば、針又はカテーテルの遠位端に付けられるか、又は遠位端に埋め込まれる)介入ツールに対して空間的にアラインされる、音響センサに関する。
1Dトランスデューサアレイを有する2D超音波プローブは、広範囲の臨床的介入における目標解剖学的平面の視覚化のために通常用いられる。 しかしながら、2D超音波プローブによって生成される目標解剖学的平面の音響イメージングの外側で介入ツール(例えば、針、カテーテルなど)の位置を評価することが課題となる。従って、臨床医は、介入ツールを、目標解剖学的平面、特に介入ツールの遠位端の音響画像の内側において正確に位置させようとする際、多くの労力及び時間を費やし得る。より特定されることに、介入ツールの、目標解剖学的平面への斜角/直角注入を含む介入のために、目標解剖学的平面の音響画像の内側のエントリの正確な時間及び位置を設定することは困難であることが分かっている。
例えば、超音波ガイド下の針挿入は通常、様々な介入(例えば、生検、排液、神経ブロック、脈管アクセスなど)のために実行される。針シャフトに対してほぼ垂直なイメージングビームをステアリングすることに基づいて針視覚化技術が実施される間、かなり多くの場合、針は、組織不均質性及び/又は斜角の非対称性のために、音響画像平面からはずれる。基本的に、面外針は、スマート針視覚化強調ソフトウェアの洗練度にかかわりなく、音響画像平面から見えなくなる。臨床医はそれから、針の画像を再取得するために音響画像平面を動かさなければならないが、結果的に目標解剖学的平面の音響画像を見失う。さらに臨床医は、音響画像平面に関して針がどこにあるかを知らず、それ故に臨床医は、針を見つけるために2D超音波プローブをどのように動作するかについてのインジケーションを持たない。
要約すると、音響イメージングのために、目標解剖学的平面をイメージングし続け、同時に目標解剖学的平面に関して針の相対位置を知ることが命令動作原理になる。本発明は、音響画像平面に対する、介入ツールの相対位置トラッキングを容易化するために、音響画像平面の音響検出から導出される合成音響検出波形を出力するように、(例えば、針又はカテーテルの遠位端に付けられるか、又は遠位端に埋め込まれる)介入ツールに対して空間的にアラインされる、音響センサをもたらすことによって、この動作原理に執着する。
本発明の実施例によると、(例えば、針又はカテーテルの遠位端に付けられるか、又は遠位端に埋め込まれる)介入ツールに対して空間的にアラインされる、二つ又はそれより多くの音響センサがもたらされる。動作において、各々の音響センサは、(例えば、線形又は曲線形の、1Dトランスデューサアレイを有する2D超音波プローブによって生成される)音響画像平面の音響検出から導出される合成音響検出波形を出力するように構造的に構成される。各々の合成音響検出波形は、音響ビーム検出波形のアレイを含む。合成音響検出波形の波形プロファイル分析から導出される音響画像平面に対して、介入ツールの位置をトラッキングするように構造的に構成されるトラッキングワークステーションがもたらされ得る。
また、本発明の実施例によると、介入ツール(例えば、針又はカテーテル)を含むシステム、及び(例えば、針又はカテーテルの遠位端に付けられるか、又は遠位端に埋め込まれる)介入ツールに対して空間的にアラインされる、二つ又はそれより多くの音響センサがもたらされる。合成音響検出波形の波形プロファイル分析から導出される音響画像平面に対して介入ツールの位置をトラッキングするように構造的に構成されるトラッキングワークステーションがもたらされ得る。
本発明の更なる他の実施例によると、介入ツール(例えば、針又はカテーテルの遠位端に付けられるか、又は遠位端に埋め込まれる音響センサ)に対して、二つ又はそれより多くの音響センサの空間アライメントに基づいて介入ツールをトラッキングするための方法がもたらされる。 本方法は、音響画像平面を生成するために音響イメージングデバイス(例えば、線形又は曲線状の、1Dアレイを有する2D超音波プローブ)を動作させるステップ、及び音響ビームアレイの音響検出から導出される合成音響検出波形を出力するように各々の音響センサを動作させるステップを含む。各々の合成音響検出波形は、音響ビーム検出波形のアレイを含む。本方法は、合成音響検出波形の波形プロファイル分析から導出される音響画像平面に対する、介入ツールの位置をトラッキングするためにトラッキングワークステーションを動作させるステップを更に含む。
本発明のいろいろな特徴及び利点だけでなく、本発明の前述の形態及び他の形態は、添付の図面とともに読まれる本発明のいろいろな実施例の以下の詳細な説明からさらに明らかになるであろう。 詳細な説明及び図面は、限定的というより単に例示的に本発明を説明し、本発明の範囲は、添付のクレーム及びその同等の範囲によって規定される。
本発明により、音響画像平面を検出する音響センサの例示的な上面図を図示する。 本発明により、音響画像平面を検出する音響センサの例示的な側面図を図示する。 本発明により、図1A及び1Bに示される音響センサによって出力される、例示的な音響ビーム検出波形を図示する。 本発明により、図1A及び1Bに示される音響センサによって出力される、他の例示的な音響ビーム検出波形を図示する。 本発明により、図1A及び1Bに示される音響センサによって出力される、他の例示的な音響ビーム検出波形を図示する。 本発明により、合成音響検出波形の、例示的な主要音響ビーム検出波形を図示する。 本発明により、合成音響検出波形の、他の例示的な主要音響ビーム検出波形を図示する。 本発明により、音響画像平面を検出する介入針上に空間的にアラインされる音響センサの、例示的な上面図の第一のセットを図示する。 本発明により、音響画像平面を検出する介入針上に空間的にアラインされる音響センサの、例示的な側面図の第一のセットを図示する。 本発明により、図4A及び4Bに示される音響センサによって出力される、例示的な音響ビーム検出波形を図示する。 本発明により、音響画像平面を検出する介入針上に空間的にアラインされる音響センサの例示的な上面図の第二のセットを図示する。 本発明により、音響画像平面を検出する介入針上に空間的にアラインされる音響センサの例示的な側面図の第二のセットを図示する。 本発明により、図4C及び4Dに示される音響センサによって出力される例示的な音響ビーム検出波形を図示する。 本発明により、音響画像平面を検出する介入針上に空間的にアラインされる音響センサの例示的な上面図の第三のセットを図示する。 本発明により、音響画像平面を検出する介入針上に空間的にアラインされる音響センサの例示的な側面図の第三のセットを図示する。 本発明により、図4E及び4Fに示される音響センサによって出力される例示的な音響ビーム検出波形を図示する。 介入プロシージャを実施する本発明のトラッキングシステムの実施例を図示する。 本発明により、介入イメージング方法の実施例を表示するフローチャートを図示する。 本発明により、介入ツールトラッキング方法の実施例を表示するフローチャートを図示する。
概して、本発明は、 (1) 介入ツールに付けられるか、又は介入ツール内に埋め込まれる、二つ又はそれより多くの音響センサを有する前記介入ツール、(2)音響画像平面を生成するための音響イメージングデバイス、(3) 音響画像平面に対する、介入ツールの音響センサを介した3D位置トラッキング、(4) 2D音響画像上に重ね合わされる介入ツールの3Dレンダリングのディスプレイの動作可能なインテグレーションをもたらす。
本発明のために、用語「介入ツール」は、従来技術で知られる何れかの介入プロシージャを実行するために使用される、何れのツール、デバイス、装置等もここに広く規定される。 介入ツールの例は、限定されないが、針及びカテーテルを含み、介入プロシージャの例は、限定されないが、生検、排液、神経ブロック、脈管アクセス等を含む。
本発明のために、用語「音響センサ」は、音響エネルギの検出を表す波形を出力するように構造的に構成される何れかのデバイスとして広く規定される。
本発明のために、用語「音響イメージングデバイス」は、皮下本体構造(例えば、腱、筋肉、関節、脈管、及び内臓など)を視覚化するために音響エネルギを伝導するように構造的に構成される何れかのデバイスとしてここに広く規定される。音響イメージングデバイスの例は、限定されないが、線形又は曲線状の、1Dアレイを有する2D超音波プローブを含む。
具体的には、介入ツールが音響画像平面の近くでナビゲートされるので、本発明は、音響イメージングデバイスによって生成される音響ビームから、音響エネルギの様々な振動強度レベルを検出する各々の音響センサを前提とする。 音響エネルギによってもたらされる音響センサの振動は、各々の音響ビームに対して音響ビーム検出波形を出力するように各々の音響センサを励振し、それによって各々の音響ビーム波形は、対応する音響ビームの特定の振動強度レベルに対して、音響センサの近接性に依存するプロファイルを有する。より特定されることに、音響ビームが、解剖学的領域を通じて伝播するとき、音響ビームの振動強度レベルは減衰する。介入ツールが、音響画像平面の近くでナビゲートされるとき、音響センサは、何れかの所与の時点において音響センサから最も遠い、一つ又は複数の音響ビームに関連する最低振動強度レベル、及び何れかの所与の時点において音響センサに最も近い、一つ又は複数の音響ビームに関連する最高振動強度レベルで、音響ビームの、変化する振動強度レベルを検出するであろう。従って、音響ビーム検出波形のアレイからなる波形プロファイル分析合成音響検出波形は、音響画像平面に対して各々の音響センサのトラッキング情報の推定を容易化する。
トラッキング情報は、音響センサの空間アライメントの角度方向並びに各々の音響センサの面内位置及び面外位置を含む。
本発明のために、用語「面外位置」は、音響画像平面の外側の音響センサの何れかの直角位置として広く規定される。
本発明のために、用語「面内位置」は、音響画像平面への、音響センサの面外位置の直角投影から導出される、音響画像平面内における音響センサの投影位置、又は音響画像平面内における音響センサの物理位置としてここに広く規定される。
本発明のために、用語「角度方向」は、音響センサの空間アライメントに関連する中心/回転軸及び音響画像平面の間の角度としてここに広く規定される。実際、音響センサの空間アライメントは、何れの形態(例えば、直線形、曲線形、螺旋形等)も有し得る。
本発明は、介入ツールに対する、音響センサの何れの特定の空間アライメントも、合成音響検出波形のプロファイルにおける類似点及び差異をディクテートし、これらの類似点及び差異を、音響画像平面に対する、介入ツールの3D位置をトラッキングすることに利用することを認識する。更に特定されることに、音響イメージングデバイスの各々のライントリガのために、合成音響検出波形のプロファイル形状は、特に介入ツールに対する、音響センサの軸空間アライメントに対してかなりの程度類似し、合成音響検出波形のプロファイルレンジは、各々の音響センサの面外位置及び面内位置に依存して、特定可能な程度に類似し、又は異なり得る。
具体的には、各々の音響センサに対して、合成音響検出波形のピーク振幅は、音響センサに最も近い「主要」音響ビーム検出波形を特定し、それによって、主要音響ビーム検出波形のプロファイルは、音響センサの面内位置の推定を容易化するであろう。音響センサの推定された面内位置の間で計算された距離、及び音響センサの間の空間距離の情報は、音響画像平面に対する、音響センサの空間アライメントの角度方向の推定を容易化する。
音響センサの面外位置は、主要音響ビーム検出波形の相対的なピーク振幅の比較によって推定されてもよい。 これらの推定は、音響画像平面に対する、音響センサの空間アライメントの角度方向及び/又は音響センサの面内位置によって補われてもよい。
前記位置/方向推定の全ては、様々な既知の視覚化オプションを使用して音響画像の2Dディスプレイとともに表示されてもよい、介入ツールの3D位置トラッキングを容易化する。 本発明による、介入ツールの3D位置トラッキングをさらに理解することを容易化するため、この場合、図1-8が、曲線アレイを有する2D音響イメージングデバイス10を含む、羊水穿刺プロシージャを実行するための、介入針20の使用のコンテキストにおいて、及び介入針20の遠位端において空間的にアラインされる、二つの音響センサ21を有する介入針50のコンテキストにおいてここに記載されるであろう。図1-8の記載から当業者は、様々な介入プロシージャのための、音響イメージングデバイス、音響センサ、及び様々な種類の介入ツールを用いる本発明を構成し、使用する方法を評価するであろう。
図1は、XYZ座標系のXY平面内において音響画像平面11を生成するための、曲線形トランスデューサアレイを有する2D超音波プローブ10(例えば、1Dトランスデューサアレイを有する2D超音波プローブ)を図示する。 音響センサ20及び21は、音響画像平面11に対する、各々の音響センサ20及び21の面内位置及び面外位置(すなわち、まとめてXYZ位置)の近接度に依存する検出度で音響画像平面11を検出する。
具体的には、各々の音響センサ20及び21は、音響画像平面11の各々のビームに対して、各々の音響センサ20及び21のXYZ位置の近くを示す、音響ビーム検出波形を出力するであろう。各々の音響センサ20及び21のXYZ位置から最も遠い、一つ又は複数の音響ビームに対して、対応する音響ビーム検出波形は、リプル波プロファイル又はゼロ波プロファイルを有するであろう。 例えば、図2Aにおいて示されるように、音響ビーム検出波形30は、存在する場合、関連する音響ビームの音響センサによる、ごくわずかな検出を示すリプル波を有する。
逆に、各々の音響センサ20及び21のXYZ位置に最も近い、一つ又は複数の音響ビームに対して、対応する音響ビーム検出波形は、フラッタリング波プロファイルを有するであろう。 例えば、図2Aにおいて示されるように、音響ビーム検出波形31は、関連する音響ビームの音響センサ20によってかなりの検出を示すフラッタリング波を有する。 また、例によって、図2Bにおいて示されるように、音響ビーム検出波形31は、関連ビームの音響センサ21によってかなりの検出を示すフラッタリング波を有する。
音響画像平面11の場合、各々の音響センサ20及び21は、音響画像平面11に対する、各々の音響センサ20及び21のXYZ位置の近接度に依存して、リプル/ゼロ波プロファイル及びフラッタリング波プロファイルからなる音響ビーム検出波形のアレイを含む合成音響検出波形を出力するであろう。例えば、図3Aにおいて示されるように、合成音響検出波形40は、音響画像平面11に対する、音響センサ20のXYZ位置の近接度に依存して、リプル/ゼロ波プロファイル及びフラッタリング波プロファイルからなる音響ビーム検出波形のアレイを含む。また、例によって、図3Bにおいて示されるように、合成音響検出波形40は、音響画像平面11に対する、音響センサ21のXYZ位置の近接度に依存して、リプル/ゼロ波プロファイル及びフラッタリング波プロファイルからなる音響ビーム検出波形のアレイを含む。ここに前述されるように、合成音響検出波形における類似点及び差異は、音響センサ20及び21の空間アライメントだけでなく、音響センサ20及び21のXYZ位置の推定を容易化する。
具体的には、各々の音響センサ20及び21のXYZ位置を決定して、対応する合成音響検出波形のピーク振幅が、音響センサに最も近い「主要」音響ビーム検出波形を特定し、それによって、主要音響ビーム検出波形のプロファイルは、音響センサの面内位置及び面外位置の推定を容易化するであろう。
例えば、図3Aにおいて示されるように、合成音響検出波形40のピーク振幅は、音響ビーム検出波形31を、主要音響ビーム検出波形として特定する。音響センサ20の面内位置のX座標は、図3Aにおいて示されるように、合成音響検出波形40内における音響ビーム検出波形31のビーム位置bp20に基づいて推定されてもよい。 音響センサ20の面内位置のY座標は、図2Bにおいて示されるように、音響ビーム検出波形31のピーク振幅の時間tp20に基づいて推定されてもよい。音響センサ20の面外位置のZ座標は、音響画像平面11内にある音響センサ20によって実現され得る音響ビーム検出波形31の最大ピーク振幅と比較される、図2Bにおいて示されるように、音響ビーム検出波形31のピーク振幅の大きさVP20に基づいて推定されてもよい。
また、例によって、図3Bにおいて示されるように、合成音響検出波形41のピーク振幅は、音響ビーム検出波形32を主要音響ビーム検出波形として特定する。 音響センサ21の面内位置のX座標は、図3Bにおいて示されるように、合成音響検出波形41内において音響ビーム検出波形32のビーム位置bp20に基づいて推定されてもよい。 音響センサ21の面内位置のY座標は、図2Cにおいて示されるように、音響ビーム検出波形32のピーク振幅の時間tp21に基づいて推定されてもよい。音響センサ21の面外位置のZ座標は、音響画像平面11内にある音響センサ21によって実現され得る音響ビーム検出波形32の最大ピーク振幅と比較される、図2Cにおいて示されるように、音響ビーム検出波形31のピーク振幅の大きさVP21に基づいて推定されてもよい。
図1A及び1Bにおいて示されるように、音響センサ21よりプローブ10及び音響画像平面11に近い音響センサ20が示される。 従って、主要音響ビーム波形31及び32から推定される音響センサ20及び21のXYZ位置は、音響センサ21よりプローブ10及び音響画像平面11に近い音響センサ20を反映するであろう。 更に、音響センサ20及び21の両方の面内XY位置に対する、音響センサ20及び21の既知の空間アライメント22への比較、並びに音響ビーム検出波形31及び32の位相オフセットは、音響画像平面11に対する、音響センサ20及び21の空間アライメント22の角度方向θを推定するための基礎としての役割を果たす。本発明は、付けられるか、又は埋め込まれる音響センサ20及び21を有する介入ツールの位置をトラッキングするための基礎としての、音響画像平面11に対する、音響センサ20及び21の既知の空間アライメントの角度方向θの推定、並びに音響センサ20及び21のXYZ位置の推定を使用する。
例えば、図4及び5は、介入針50の遠位端における、音響センサ20及び21の既知の空間アライメントを図示する。 このように、音響画像平面11に対する、音響センサ20及び21の既知の空間アライメントの角度方向θの推定、並びに音響センサ20及び21のXYZ位置の何れの推定も、介入針50の遠位端の位置をもたらす。
具体的には、図4A及び4Bは、音響画像平面11のX軸と平行な介入針50、及び音響画像平面11のY軸及びZ軸と直角をなす介入針50を図示する。 音響センサ20は、図5Aに示される主要音響ビーム波形33を出力し、音響センサ21は、前述のとおり、音響センサ20及び21のXYZ位置を推定するために、図5Aにおいて示される主要音響ビーム波形34を出力する。介入針50のこの3D位置トラッキングのために、ゼロ位相オフセットPO並びに音響センサ20及び21の既知の空間距離に等しい、音響センサ20及び21の面内位置の距離は、介入針50の遠位端が、プローブ10及び音響画像平面11と平行になることを示す。
図4C及び4Dは、音響画像平面11のX軸及びZ軸と直角をなす介入針50並びに音響画像平面11のY軸と平行な介入針50を図示する。音響センサ20は、図5Bに示される主要音響ビーム波形37を出力し、音響センサ21は、前述のとおり、音響センサ20及び21のXYZ位置を推定するために、図5Bにおいて示される主要音響ビーム波形38を出力する。介入針50のこの3D位置トラッキングのために、非ゼロ位相オフセットPO並びに音響センサ20及び21の既知の空間距離に等しい、音響センサ20及び21の面内位置の距離は、介入針50の遠位端が、プローブ10と直角をなし、音響画像平面11と平行になることを示す。
図4E及び4Fは、音響画像平面11のX軸及びY軸に対して傾けられる介入針50を図示する。 音響センサ20は、図5Cに示される主要音響ビーム波形35を出力し、音響センサ21は、前述のとおり、音響センサ20及び21のXYZ位置を推定するために、図5Cにおいて示される主要音響ビーム波形36を出力する。介入針50のこの3D位置トラッキングのために、ゼロ位相オフセット並びに音響センサ20及び21の既知の空間距離より短い、音響センサ20及び21の面内位置の距離は、介入針50の遠位端が、プローブ10と平行であり、音響画像平面11に対して傾けられることを示す。
図4及び5から当業者は、介入ツールが音響イメージング平面に対してナビゲートされると、音響センサによって出力される合成音響検出波形のプロファイルは変化し、それでも、合成音響検出波形のプロファイルにおける類似点と差異は、介入ツールの3D相対位置トラッキングを容易化することを評価するであろう。
さらに当業者は、音響センサのXYZ位置を推定するため、及び音響センサの空間アライメントの角度方向を推定するために実行される等式が、所望のトラッキング分解能に依存して変化することを評価するであろう。
図6は、女性患者FPの羊水穿刺プロシージャの間、フローチャート80(図7)を実行するためのトラッキングワークステーション60をさらに図示する。トラッキングワークステーション60は、トラッキングワークステーション60内おいてハードウェア/ソフトウェア/ファームウェアとしてインストールされ、プログラムされる、モジュール71-73のネットワーク70を実行するための、ハードウェア/回路(例えば、一つ又は複数のプロセッサ、メモリなど)を備えるように構造的に構成される。実際、トラッキングワークステーション60は、独立したワークステーションであってもよく、複数のワークステーションの間に配置されてもよい。
超音波スキャナ71は、女性患者FP内における胎児をイメージングするための、超音波プローブ12による、音響画像平面13の生成を制御するために、フローチャート80(図7)のステージS81の間、一つ又は複数の従来技術を使用する。超音波プローブ12は、女性患者FPの胎児の2D超音波画像15を表示するイメージングデータ14を用いて、イメージングデータ14をトラッキングワークステーション60に供給する。
ツールトラッカ72は、音響画像平面13に対する、介入針50の遠位端の3D位置を決定するため、フローチャート80(図7)のステージS82の間、本発明の一つ又は複数の技術を使用する。実際、一つ又は複数の技術は、図1-5に関連してここに前述のとおり、本発明の動作原理に従って実施される。 一つの実施態様において、ツールトラッカ72は、超音波スキャナ71からツールトラッカ72にライントリガ74によってトリガされる、図8において示される、フローチャート90を実行する。
図6及び8を参照すると、フローチャート90のステージS91は、例えば、示される合成音響検出波形42及び43のような合成音響検出波形の波形データ24を処理するツールトラッカ72を含む。
フローチャート90のステージS92は、ここに前述のとおり、各々の音響センサ20及び21の面内XY位置を推定するツールトラッカ72を含む。
フローチャート90のステージS93は、ここに前述のとおり、音響センサ20及び21の角度方向を推定するツールトラッカ72を含む。
フローチャート90のステージS94は、ここに前述のとおり、各々の音響センサ20及び21の面外位置Zを推定するツールトラッカ72を含む。
実際、ツールトラッカ72は、推定ステージS92-S94のための、ほぼ現在の合成音響検出波形のみの処理を含む瞬間的な態様で、又はステージS92-74の推定のための、一続きの合成音響検出波形の処理を含む漸進的な態様で、フローチャート90を実行してもよい。
図6に戻ると、画像トラッカ73は、2D超音波画像15の標準ビューで重ね合わされる、介入針50のアイコン62のディスプレイ61を生成するために、フローチャート80(図7)のステージS83の間、一つ又は複数の従来技術を使用する。代わりに、又は並行して、画像トラッカ71は、2D超音波画像15の側面図で重ね合わされる、介入ツール50のアイコン62のディスプレイ63を生成してもよい。
図1-8を参照すると、当業者は、限定されないが、2D音響イメージングデバイスから生成される音響エネルギを用いた介入ツールの3Dトラッキングを含む、本発明の多数の利点を評価するであろう。
実際、本発明の波形プロファイル分析を介した介入ツールの3D位置トラッキングを改良するために、様々かつ多数の方法が、使用されてもよい。例えば、合成音響検出波形及び/又は主要音響ビーム波形のピーク振幅が「横ばい」になり始めるとき、介入ツールが音響画像平面にかなり近いことは兆候になる。従って、トラッキング分解能は、介入ツールの位置のトラッキングの正確さを改良するために増やされてもよい。 また、例によって、合成音響検出波形及び/又は主要音響ビーム波形のピーク振幅に適合するグラフが、より速い位置及び角度方向推定のために、波形を滑らかにするように用いられてもよい。更なる例によって、音響画像平面の術前較正は、より速い位置及び角度方向推定のために使用されてもよい。
本発明の様々な実施例が図示されると共に記載されているが、本明細書に記載の本発明の実施例が図示を目的とするものであり、様々な変形及び修正がなされてもよく、同等のものが、本発明の範囲から逸脱することなく、本発明の構成要素の代わりに使用されてもよいことは当業者によって理解されるであろう。更に、本発明の範囲から逸脱することなく、本発明の教示を適用するために多くの変形がなされてもよい。それ故に本発明が、本発明を実施するように意図されるベストモードとして開示される特定の実施例に限定されるものではないが、本発明が特許請求の範囲内の全ての実施例を含むことは意図される。

Claims (20)

  1. 介入ツールに対して空間的にアラインされる少なくとも二つの音響センサ
    を有する、システムであって、
    各々の音響センサは、音響画像平面の音響検出から導出される合成音響検出波形を出力するように構造的に構成され、
    各々の合成音響検出波形は、音響ビーム検出波形のアレイを含む、
    システム。
  2. 前記合成音響検出波形の波形プロファイル分析から導出される前記音響画像平面に対する、前記介入ツールの位置をトラッキングするように構造的に構成されるトラッキングワークステーション
    を更に有する、請求項1に記載のシステム。
  3. 前記音響画像平面を生成するように構造的に構成されるプローブ
    を更に有する、請求項1に記載のシステム。
  4. 前記プローブは超音波プローブである、
    請求項3に記載のシステム。
  5. 前記介入ツールは針又はカテーテルである、
    請求項1に記載のシステム。
  6. 前記少なくとも二つの音響センサは、前記介入ツールに埋め込まれるか、又は前記介入ツールに付けられるものの少なくとも一つである、
    請求項1に記載のシステム。
  7. 前記トラッキングワークステーションによる前記合成音響検出波形の前記波形プロファイル分析は、
    各々の合成音響検出波形の主要音響ビーム検出波形のプロファイル特定の機能としての、各々の音響センサの面内位置の推定
    を含む、請求項2に記載のシステム。
  8. 各々の主要音響ビーム検出波形の振幅は、対応する音響センサの前記面内位置を示す、
    請求項7に記載のシステム。
  9. 各々の主要音響ビーム検出波形の位相は、対応する音響センサの前記面内位置を示す、
    請求項7に記載のシステム。
  10. 前記トラッキングワークステーションによる前記合成音響検出波形の前記波形プロファイル分析は、
    各々の音響センサの前記面内位置の前記推定の機能としての、前記音響画像平面に対する、前記介入ツールの角度方向の推定
    を更に含む、請求項7に記載のシステム。
  11. 前記主要音響ビーム波形の位相オフセットは、前記音響画像平面に対する、前記介入ツールの角度方向を示す、請求項10に記載のシステム。
  12. 前記少なくとも二つの音響センサの間の少なくとも一つの空間距離は、前記音響画像平面に対する、前記介入ツールの前記角度方向を示す、請求項10に記載のシステム。
  13. 前記トラッキングワークステーションによる前記合成音響検出波形の前記波形プロファイル分析は、
    各々の主要音響ビーム波形の振幅の機能としての、各々の音響センサの面外位置の推定
    を更に含む、請求項7に記載のシステム。
  14. プロファイル最大振幅に対する、各々の主要音響ビーム波形の前記振幅の比較は、各々の音響センサの前記面外位置を示す、請求項13に記載のシステム。
  15. 介入ツール、及び
    前記介入ツールに対して空間的にアラインされる、少なくとも二つの音響センサ
    を有し、
    各々の音響センサは、音響画像平面の音響検出から導出される合成音響検出波形を出力するように構造的に構成され、
    各々の合成音響検出波形は、音響ビーム検出波形のアレイを含む、
    システム。
  16. 介入ツールに対する、少なくとも二つの音響センサの空間アライメントに基づいて、前記介入ツールをトラッキングするための方法であって、
    音響画像平面を生成するために音響イメージングデバイスを動作させるステップと、
    前記音響ビームアレイの音響検出から導出される合成音響検出波形を出力するように各々の音響センサを動作させ、各々の合成音響検出波形は音響ビーム検出波形のアレイを含むステップと、
    前記合成音響検出波形の波形プロファイル分析から導出される前記音響画像平面に対して前記介入ツールの位置をトラッキングするためにトラッキングワークステーションを動作させるステップと
    を有する、方法。
  17. 前記トラッキングワークステーションによる前記合成音響検出波形の前記波形プロファイル分析は、
    各々の合成音響検出波形の主要音響ビーム検出波形のプロファイル特定の機能としての、各々の音響センサの面内位置の推定
    を含む、請求項16に記載の方法。
  18. 前記トラッキングワークステーションによる前記合成音響検出波形の前記波形プロファイル分析は、
    前記音響画像平面に対する、各々の音響センサの前記面内位置の前記推定の機能としての、前記音響画像平面に対する、前記介入ツールの角度方向の推定
    を含む、請求項17に記載の方法。
  19. 前記トラッキングワークステーションによる前記合成音響検出波形の前記波形プロファイル分析は、
    各々の主要音響ビーム波形の振幅の機能としての、前記音響画像平面に対する、各々の音響センサの面外位置の推定
    を含む、請求項17に記載の方法。
  20. 前記音響画像平面から導出される音響画像に対する、前記介入ツールの前記トラッキングされた位置を表示するために前記トラッキングワークステーションを動作させるステップ
    を有する、請求項16に記載の方法。
JP2016543475A 2013-09-24 2014-09-16 介入ツールの音響3dトラッキング Active JP6253787B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361881500P 2013-09-24 2013-09-24
US61/881,500 2013-09-24
PCT/IB2014/064537 WO2015044831A1 (en) 2013-09-24 2014-09-16 Acoustic 3d tracking of interventional tool

Publications (3)

Publication Number Publication Date
JP2016530978A true JP2016530978A (ja) 2016-10-06
JP2016530978A5 JP2016530978A5 (ja) 2017-08-17
JP6253787B2 JP6253787B2 (ja) 2017-12-27

Family

ID=51753260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016543475A Active JP6253787B2 (ja) 2013-09-24 2014-09-16 介入ツールの音響3dトラッキング

Country Status (5)

Country Link
US (1) US10660710B2 (ja)
EP (1) EP3049013B1 (ja)
JP (1) JP6253787B2 (ja)
CN (1) CN105578984B (ja)
WO (1) WO2015044831A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507134A (ja) * 2018-11-15 2022-01-18 コーニンクレッカ フィリップス エヌ ヴェ 医学的介入における同時センサ追跡

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108430335B (zh) 2015-12-31 2021-07-30 皇家飞利浦有限公司 用于介入声成像的系统和方法
EP3518770A1 (en) 2016-09-30 2019-08-07 Koninklijke Philips N.V. Tracking a feature of an interventional device
JP2020506749A (ja) * 2017-01-19 2020-03-05 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入デバイスを撮像及び追跡するシステム並びに方法
JP2021526932A (ja) * 2018-06-15 2021-10-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 相対的な装置の向きの決定
JP2021534861A (ja) * 2018-08-22 2021-12-16 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入性音響撮像におけるセンサ追跡推定値を制約するためのシステム、デバイス及び方法
DE102018215470A1 (de) * 2018-09-12 2020-03-12 B. Braun Melsungen Ag Verfahren zur Positionsermittlung einer medizinischen Invasivkomponente sowie medizinisches System zur Ausführung eines solchen Verfahrens
JP7460613B2 (ja) * 2018-10-25 2024-04-02 コーニンクレッカ フィリップス エヌ ヴェ 音響撮像における介入装置の先端の場所を推定するためのシステム、装置及び方法
CN113905671A (zh) * 2019-05-30 2022-01-07 皇家飞利浦有限公司 编码的同步的医学介入图像信号和传感器信号

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320378A (ja) * 2005-05-17 2006-11-30 Ge Medical Systems Global Technology Co Llc 超音波診断装置、超音波画像生成方法および超音波画像生成プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4407294A (en) * 1982-01-07 1983-10-04 Technicare Corporation Ultrasound tissue probe localization system
US5400788A (en) 1989-05-16 1995-03-28 Hewlett-Packard Apparatus that generates acoustic signals at discrete multiple frequencies and that couples acoustic signals into a cladded-core acoustic waveguide
US5217018A (en) * 1989-05-16 1993-06-08 Hewlett-Packard Company Acoustic transmission through cladded core waveguide
US6546276B1 (en) * 2000-09-12 2003-04-08 Claudio I. Zanelli Ultrasonic based detection of interventional medical device contact and alignment
JP2006220636A (ja) * 2004-07-27 2006-08-24 Matsushita Electric Works Ltd 音波センサ
JP5889874B2 (ja) * 2010-05-03 2016-03-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入器具に搭載される超音波トランスデューサの超音波トラッキング
US11147532B2 (en) * 2011-06-13 2021-10-19 Koninklijke Philips N.V. Three-dimensional needle localization with a two-dimensional imaging probe
CN104169739B (zh) * 2011-10-28 2017-04-12 决策科学国际公司 超声成像中的扩频编码波形
JP5960377B1 (ja) 2013-05-31 2016-08-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入プロシージャの間にユーザを支援するための支援装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006320378A (ja) * 2005-05-17 2006-11-30 Ge Medical Systems Global Technology Co Llc 超音波診断装置、超音波画像生成方法および超音波画像生成プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022507134A (ja) * 2018-11-15 2022-01-18 コーニンクレッカ フィリップス エヌ ヴェ 医学的介入における同時センサ追跡
JP7430180B2 (ja) 2018-11-15 2024-02-09 コーニンクレッカ フィリップス エヌ ヴェ 医学的介入における同時センサ追跡

Also Published As

Publication number Publication date
US10660710B2 (en) 2020-05-26
CN105578984A (zh) 2016-05-11
EP3049013A1 (en) 2016-08-03
WO2015044831A1 (en) 2015-04-02
EP3049013B1 (en) 2017-11-15
JP6253787B2 (ja) 2017-12-27
CN105578984B (zh) 2021-02-26
US20160242856A1 (en) 2016-08-25

Similar Documents

Publication Publication Date Title
JP6253787B2 (ja) 介入ツールの音響3dトラッキング
JP7165181B2 (ja) 超音波イメージングプレーンと器具のアライメント及び追跡
EP3730083A1 (en) Magnetic interference detection systems and methods
Jiang et al. Automatic normal positioning of robotic ultrasound probe based only on confidence map optimization and force measurement
JP6053766B2 (ja) 二次元撮像プローブを用いる三次元針位置特定
JP7089521B2 (ja) 高速且つ自動化された超音波プローブ校正のためのシステム及び方法
US20150173723A1 (en) Method and system for automatic needle recalibration detection
Kim et al. Ultrasound probe and needle-guide calibration for robotic ultrasound scanning and needle targeting
US20120071757A1 (en) Ultrasound Registration
JP7218293B2 (ja) 装置追跡に対する超音波システムにおける経路追跡
JP2008058307A (ja) 周波数外挿を利用した歪みのない位置追跡方法およびシステム
Ren et al. Detection of curved robots using 3D ultrasound
JP2019533536A (ja) 追跡信頼性に関するフィードバックを用いて介入器具を追跡するシステム及び方法
Adebar et al. 3D segmentation of curved needles using Doppler ultrasound and vibration
WO2013140315A1 (en) Calibration of tracked interventional ultrasound
Mathiassen et al. Real-time biopsy needle tip estimation in 2D ultrasound images
Jayarathne et al. Robust, intrinsic tracking of a laparoscopic ultrasound probe for ultrasound-augmented laparoscopy
Huang et al. Image registration based 3D TEE-EM calibration
Onogi et al. Automatic doppler volume fusion of 3D Ultrasound using point-based registration of shared bifurcation points
CN111479510B (zh) 超声跟踪和可视化
WO2015100580A1 (en) Method and system for enhanced visualization by automatically adjusting ultrasound needle recognition parameters
Waspe et al. Registration of three-dimensional high-frequency ultrasound images to a robotic needle-positioning system for pre-clinical research
Najafi et al. A closed-form differential formulation for ultrasound spatial calibration
Zhao et al. A new automatically biopsy needle tracking method using 3D ultrasound
Wang et al. A fully automatic 2D ultrasound probe calibration method using a simple phantom

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170710

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170710

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170710

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171128

R150 Certificate of patent or registration of utility model

Ref document number: 6253787

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250