JP6483133B2 - 刺入器具を追跡するシステム及び方法 - Google Patents

刺入器具を追跡するシステム及び方法 Download PDF

Info

Publication number
JP6483133B2
JP6483133B2 JP2016541048A JP2016541048A JP6483133B2 JP 6483133 B2 JP6483133 B2 JP 6483133B2 JP 2016541048 A JP2016541048 A JP 2016541048A JP 2016541048 A JP2016541048 A JP 2016541048A JP 6483133 B2 JP6483133 B2 JP 6483133B2
Authority
JP
Japan
Prior art keywords
interest
real
needle
array
time images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016541048A
Other languages
English (en)
Other versions
JP2016540604A5 (ja
JP2016540604A (ja
Inventor
マラゴーシュ アミル モハマド ターマセビ
マラゴーシュ アミル モハマド ターマセビ
フランソワ ギィ ジェラルド マリー ヴィニョン
フランソワ ギィ ジェラルド マリー ヴィニョン
アメート クマール ジャイン
アメート クマール ジャイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2016540604A publication Critical patent/JP2016540604A/ja
Publication of JP2016540604A5 publication Critical patent/JP2016540604A5/ja
Application granted granted Critical
Publication of JP6483133B2 publication Critical patent/JP6483133B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • A61B2017/3413Needle locating or guiding means guided by ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Vascular Medicine (AREA)
  • Pulmonology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Image Processing (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)

Description

本開示は、医療器具ガイダンスシステム及び方法に関し、特に、スマートニードル及びニードルガイダンスのより大きな視覚化を提供するために融合される画像を使用するニードルガイダンスに関する。
過去10年において、硬膜外インターベンションにおける超音波の使用の増加が示されており、これがすぐに臨床ケアの標準の一部になるであろうことが予測される。しかしながら、超音波ガイドされる硬膜外処置の1つの課題は、脊椎を横切ることなくニードルを見ることの難しさである。医師は、主にこの通路を検出するために、抵抗の低下に依存し、これは、非常に主観的な手技であり、結果として合併症につながる可能性がある。脊椎関連の痛みは、病的状態の一般的原因となっている。診断及び処置の相当な医療コストに加えて背中の痛みは、負担及び生産性の損失をもたらす。硬膜外注入は、物理的な治療、経口薬、及び患者が保存療法に応じない場合の手術に加えて、痛みを軽減するために考えられうる多くの方法のうちの1つである。硬膜外注入は、痛み又は炎症の一時的な又は長期にわたる軽減を提供するために、脊椎の硬膜外腔に供給される。
3枚の組織層が脊髄を覆っている。硬膜外腔は、脊髄の最も外側の組織層(硬膜)と、骨の内側表面及びそれが含まれる支持靭帯との間の空間領域である。硬膜外腔は、脊椎の長さにわたって延在する。硬膜外腔は、血管及び神経根に加えて脂肪組織を含む。硬膜外注入が、脱出した又は隆起した椎間板、脊椎狭窄症、術後「フェイルドバック」手術症候群(脊椎手術後の慢性の背部又は脚部の痛み)、又は脊髄神経、脊柱及び周囲組織の他の損傷によって生じる痛みを軽減するために、行われることができる。
硬膜外麻酔は更に、分娩のため及び多くの外科プロシージャのために行われる。硬膜外麻酔を行う合併症は、注入の間の誤ったニードルポジショニングのために起こるが、患者にいかなる永久的な損傷も生じさせない。しかしながら、合併症は、相当に調子を狂わせることがあり、数日間持続することがある。硬膜外麻酔の間、ニードルの配置は、効果的に鎮痛を行い、神経損傷を回避するために重要である。しかしながら、正確な硬膜外ニードルの挿入は、習得するのが難しく、概して、ニードルプランジャ上で抵抗の低下を検出して配置を決定する麻酔医の専門的知識に依存する。
ポータブル超音波装置は、特に難易度の高い解剖学的構造(高い肥満度指数(BMI))、せき柱変形、等)の存在下、硬膜外及び他の注入又は脊椎穿刺及び他の生検のためのニードルポジショニングを助けるためにますます使用されている。しかしながら、超音波は、特にニードル挿入が非常に急勾配であるプロシージャの場合にニードル先端を良好に視覚化しない。更に、組織(例えば黄色靱帯)は、超音波にとっての挑戦的な環境(例えば骨の存在)のため、超音波ガイダンスによっても見ることが困難でありうる。
電磁トラッキングのようなニードルの視覚化が、超音波画像上にニードル先端を強調表示するために示されており、製品が、麻酔及び生検ガイダンスに利用可能である。しかしながら、これらのニードルの高い費用及びわずらわしいセットアップ時間が、この技術の採用を減らしている。ニードル視覚化を改良する他の方法は、例えばX線又はコンピュータトモグラフィ(CT)のような、ワークフローに対する他の撮像モダリティの付加を含むが、これは、プロシージャを一層扱いにくくする。
本開示の原理によれば、刺入器具を追跡するシステムは、関心領域の1又は複数のリアルタイム画像を生成するために、複数のアレイ位置から信号を生成するように構成される術中トランスデューサアレイを有する。刺入器具は本体を有し、センサが、本体の関心位置に載置される。センサは、複数のアレイ位置からの信号に応答する。信号処理モジュールは、複数のアレイ位置からの信号に従って、刺入器具の位置及び向きを決定するように構成される。信号処理モジュールは更に、複数のアレイ位置からの信号に対するセンサの応答に基づいて関心位置が位置付けられる媒質を分類するように構成される。オーバレイモジュールは、関心位置のその位置を識別し及び関心位置が位置付けられている媒質についてのフィードバックを提供するために、1又は複数のリアルタイム画像に位置合わせされるオーバレイ画像を生成するように構成される。ディスプレイは、1又は複数のリアルタイム画像上にオーバレイ画像の視覚的フィードバックを提供するように構成される。
本開示の原理による刺入器具を追跡する別のシステムは、複数のアレイ位置からの信号に従って刺入器具の位置及び向きを決定するように構成される信号処理モジュールを有する。刺入器具は、遠位の先端位置に又はその近傍に搭載される超音波センサを有する。信号処理モジュールは、複数のアレイ位置からの信号に対するセンサの応答に基づいて刺入器具の先端が位置付けられる組織タイプを分類するように更に構成される。
このシステムは、関心領域の1又は複数のリアルタイム画像を提供するために複数のアレイ位置から信号を生成するように構成される術中超音波トランスデューサアレイを更に有することができる。更に、リアルタイム画像に位置合わせされるオーバレイ画像を生成するように構成されるオーバレイモジュールが、システムに含まれることができる。オーバレイ画像は、刺入性器具の強調表示された位置及び組織タイプのアイデンティフィケーションを含むことができる。ディスプレイが更に含まれることが、リアルタイム画像の1又は複数にオーバレイ画像の視覚的フィードバックを提供するように構成されることができる。リアルタイム画像の1又は複数は、1又は複数の2次元画像を含むことができる。システムは、2次元画像の1又は複数から関心領域の3次元画像ボリュームを再構成するように構成される3次元再構成モジュールを更に有することができる。更に、システムは、1又は複数の2次元リアルタイム画像を、関心領域の3次元画像ボリュームと位置合わせするように構成される位置合わせモジュールを有することができる。更に、位置合わせモジュールが、基準画像を、関心領域の3次元画像ボリュームと位置合わせするように構成されることが可能である。刺入器具は、ニードルであり又はニードルを有することができる。組織タイプは、薬剤が刺入器具を通じていつ注入されるべきかを示すインジケータとして用いられることができる。刺入器具は、硬膜外インターベンションのために用いられることができる。
本開示の原理による刺入器具を追跡する更に別のシステムは、関心領域の1又は複数のリアルタイム画像を提供するために複数のアレイ位置から信号を生成するように構成される術中超音波トランスデューサアレイを有する。ニードルは、遠位先端位置に搭載される音波センサを有する。センサは、複数のアレイ位置からの信号に応答する。信号処理モジュールは、複数のアレイ位置からの信号に従ってニードルの位置及び向きを決定するように構成される。信号処理モジュールは、複数のアレイ位置からの信号に対するセンサの応答に基づいて、ニードルの先端が位置付けられている組織タイプを分類するように更に構成される。オーバレイモジュールは、1又は複数のリアルタイム画像に位置合わせされるオーバレイ画像を生成するように構成される。オーバレイ画像は、ニードルの強調表示された位置及び組織タイプのアイデンティフィケーションを含む。ディスプレイは、1又は複数のリアルタイム画像にオーバレイ画像の視覚的フィードバックを提供するように構成される。
本開示による刺入器具を追跡する方法は、関心領域の1又は複数のリアルタイム画像を生成するために複数のアレイ位置から信号を生成するステップと、本体を有する刺入器具を提供するステップであって、刺入器具が、本体上の関心位置に搭載されるセンサを有し、センサが複数のアレイ位置からの信号に応答する、ステップと、信号処理モジュールを使用して複数のアレイ位置からの信号に従って刺入器具の位置及び方向を決定するステップと、複数のアレイ位置からの信号に対するセンサの応答に基づいて、関心位置が位置付けられている媒質を分類するステップと、関心位置の位置を識別し、関心位置が位置付けられる媒質についてのフィードバックを提供するために、1又は複数のリアルタイム画像に位置合わせされるオーバレイ画像を生成するステップと、1又は複数のリアルタイム画像にオーバレイ画像を表示するステップと、を有する。
本開示のこれら及び他の目的、特徴及び利点は、その例示の実施形態の以下の詳細な説明から明らかであり、例示の実施形態は、添付の図面に関連して理解されることができる。
一実施形態による、刺入器具を追跡するシステムを示すブロック/フロー図。 かろうじて目に見えるニードルを有する脊椎の一部を表す超音波画像を示す図。 本原理により強調表示されるニードル先端を有する脊椎の一部を表す超音波画像を示す図。 例示の実施形態による、刺入器具を追跡する方法を示すフロー図。 本原理によるニードルガイダンスのターゲットとしての硬膜上腔を示すために脊椎の一部を示す図。 一実施形態による、刺入器具を追跡する別の方法を示す別のフロー図。
本開示は、添付の図面に関連して好適な実施形態の説明を以下に詳しく示す。
本原理により、ニードル又は他のガイドされる器具をナビゲートすることを助けるとともに、硬膜外又は他のインターベンションの臨床結果を改善するシステム及び方法が提供される。本原理は、費用重視であり、この点に関してさまざまな低コストモジュールを用いることによって利点を提供する。低コストモジュール又はツールは、例えば超音波画像において可視でありうるスマートニードル、プロシージャ計画ツール、2D画像スイープを使用する3Dボリューム再構成ツール、コンピュータトモグラフィ(CT)画像に対する患者の位置合わせツール、患者3D計画に対する脊椎の統計モデルの位置合わせツール、現在の超音波画像のライブ2D−3D位置合わせツール、又は計画に従う3Dライブニードル位置付けツールを含むことができる。実施形態は、上述のモジュール又はツールの1又は複数を用いることができる。
一実施形態において、1又は複数の超音波センサが、ニードルの先端の近傍に配置される。センサは、それがイメージングプローブから信号を受け取ると、ニードル先端を視覚化することを可能にする。これは、ニードルの現在の位置及び向きを追跡することを助け、ニードルがセンシティブな脊椎組織を刺入しないことを確実にする。更に、プロシージャの前に、線形プローブの仰角方向の迅速な1Dスイープが、例えば、スペックル相関方法を使用して患者の脊柱の解剖学的構造の3Dボリュームを構成するために使用されることができる。このボリュームは、脊椎骨の統計モデル(又は術前CT画像)に位置合わせされることができ、それにより、インターベンション前の解剖学的構造の3D理解を改善する。ライブ超音波画像は、例えばスライス−ボリューム融合アルゴリズムを使用して、この3D計画に位置合わせされることができる。ニードルが患者に挿入されるにつれて、ニードルは、本原理によるニードル追跡技術を使用して3次元で追跡され、3D計画上に視覚化されることができる。このシステムは、大幅に合併症を低減し、効果を増大する。
硬膜外麻酔プロシージャは、従来、かなり盲目的なやり方で実施されていた。例えば、解剖学的ランドマークが触診され、トリガ点注入が、麻酔薬又はステロイド製剤を混ぜ合わせた麻酔薬によって完了された。近年、画像ベースのニードルガイダンスは用いられており、これは、薬剤の選択的な配置を可能にし、診断及び処置を一層助ける。例えばCTのような術前イメージングが利用可能であり、術中超音波と術前イメージングの融合が超音波の解釈及びガイダンスを助けることができる。しかしながら、超音波の解釈は、脊椎の解剖学的構造からの超音波エコーのイメージングアーチファクト及び複雑さの存在のため困難であるので、このような画像ベースのニードルガイダンスは非常に困難でありうる。本原理は、空間ガイダンスのために超音波画像におけるニードル先端の正確な位置特定を提供する。これは、このようなプロシージャの結果を改善し、合併症を低減する。好都合には、容易な製造及び低いニードル費用の維持のために、ただ1つのセンサが用いられることができる。
本原理は、超音波センサがニードルの先端の近くに埋め込まれる状況におけるin-situニードル追跡に基づくものであり、超音波センサは、それが外部の超音波イメージャからビームを受け取ると、これらの信号を受信し解析して、超音波画像に対応する基準フレーム内におけるニードル先端の正確な位置特定を出力する。
本実施形態は、一例として硬膜外注入に関して記述されることが理解されるべきである。しかしながら、記述された技術は、麻酔、疼痛管理及び癌の処置(例えば生検)における多くの他のプロシージャにも適用可能である。
更に、本発明は、医療器具に関して記述されることが理解されるべきである。しかしながら、本発明の教示は、より広いものであり、任意のガイドされる器具に適用可能である。ある実施形態において、本原理は、生物系又は機械システムのための器具を追跡する際に用いられる。特に、本原理は、生物系の内部追跡プロシージャ、すなわち肺、消化管、排出器官、血管などの身体のすべての領域におけるプロシージャに適用可能である。図に示される構成要素は、ハードウェア及びソフトウェアのさまざまな組み合わせにおいて実現されることができ、単一の構成要素又は複数の構成要素において組み合わせられることができる機能を提供することができる。
図に示されるさまざまな構成要素の機能は、専用のハードウェア及び適当なソフトウェアに関連してソフトウェアを実行することができるハードウェアの使用により提供されることができる。プロセッサによって提供される場合に、機能は、単一の専用プロセッサによって、単一の共用プロセッサによって、又は複数の個別のプロセッサ(それらのいくつかは共用されることができる)によって、提供されることができる。更に、「プロセッサ」又は「コントローラ」という語の明示的な使用は、ソフトウェアを実行することができるハードウェアのみに関連するものと解釈されるべきでなく、以下に限定されるものではないが、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するリードオンリメモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性記憶装置、その他を含むことができる。
更に、本発明の原理、見地及び実施形態並びにそれらの特定の例を列挙するすべての記述は、その構造的及び機能的な等価物を含むものとして意図される。更に、このような等価物が現在知られている等価物及び将来開発される等価物の両方(すなわち、構造に関わらず同じ機能を実施する任意の素子)を含むことが意図される。従って、例えばここに示されるブロック図が、本発明の原理を具体化する例示のシステムコンポーネント及び/又は回路の概念図を表すものであることが当業者によって理解される。同様に、任意のフローチャート、フロー図、その他は、コンピュータ可読記憶媒体上で実質的に表現されることができる、従ってコンピュータ又はプロセッサが明示的に表示されるかどうかにかかわらずそのようなコンピュータ又はプロセッサによって実行されることができる、さまざまなプロセスを表現する。
更に、本発明の実施形態は、コンピュータ又は任意の命令実行システムによって又はそれに関連して使用されるコンピュータコードを提供するコンピュータ使用可能な又はコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラム製品の形をとりうる。この記述のために、コンピュータ使用可能な又はコンピュータ可読記憶媒体は、命令実行システム、機器又は装置によって又はそれに関連して使用されるプログラムを含み、記憶し、通信し、伝播し、伝播し又は運ぶことができる任意の装置でありうる。媒体は、電子、磁気、光学、電磁、赤外線、又は半導体システム(又は機器又は装置)又は伝播媒質でありうる。コンピュータ可読媒体の例は、半導体又は固体メモリ、磁気テープ、取り外し可能なコンピュータディスケット、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、リジッド磁気ディスク及び光学ディスクを含む。光学ディスクの今日の例は、リードオンリメモリ(CD−ROM)のようなコンパクトディスク、リード/ライト(CD−R/W)、ブルーレイ及びDVDのようなコンパクトディスクを有する。
同様の数字が同じ又は同様の構成要素を表現する図面の特に図1を最初に参照して、器具ガイダンスのためのシステム100は、一実施形態により例示的に示される。システム100は、ワークステーション又はコンソール112を有することができ、かかるワークステーション112から、プロシージャが、監督され及び/又は管理される。ワークステーション112は、好適には、プログラム及びアプリケーションを記憶する1又は複数のプロセッサ114及びメモリ116を有する。メモリ116は、ターゲット又は計画に対する、及び周囲フィーチャ(又は介入環境内の組織)に対する器具の位置を決定するために、イメージング及び他のフィードバック信号を解釈するように構成される複数のモジュールを記憶する。
メモリ116は、例えば超音波画像のような2D術中画像から3Dボリューム146を再構成する3Dボリューム再構成モジュール140を有する。一実施形態において、3D術中画像が、収集され、3Dボリューム146に含められることができる。3Dボリューム再構成モジュール140は、3Dボリューム146を構築するために複数の2D画像を用いる再構成アルゴリズム又は方法を有することができる。このようなアルゴリズムは、スペックル相関方法又は他の技法を含むことができる。一実施形態において、1又は複数の3D統計モデル又はモデル142が、関心領域132に提供される。これらのモデル142は、関心領域又は関心領域内のフィーチャ(例えば硬膜外注入プロシージャの場合の脊椎骨)の術前画像ボリューム、例えば術前CT画像を含むことができる。
位置合わせモジュール144は、(モジュール140からの)3D再構成ボリュームを、統計的アトラス又は術前CTモデル142と位置合わせすることができる。一実施形態において、位置合わせモジュール144は、各々の画像、再構成又はモデルにおいてフィーチャ又はフィーチャベクトルを識別し、それらの間で位置合わせを提供するようにフィーチャを揃える。他の位置合わせ方法が用いられることもできる。
術中イメージングトランスデューサアレイ130(例えば、他のイメージング装置が用いられることができるが、例えば超音波トランスデューサアレイ)が、被検体160(例えば、患者、モジュール、装置、その他)において関心領域132をスキャンするために提供される。本原理によるガイダンスを受ける器具102は、ニードル、カテーテル、ガイドワイヤ又は任意の他のガイド可能な器具を有することができる。1又は複数の単一素子トランスデューサ134が、器具102の関心位置に、例えば硬膜外注入のために使用されるニードルの先端に又はその近傍に挿入される。
単一素子トランスデューサ134は、プロシージャの最中に、器具102(例えばニードル)が現在通っている又は接触している組織のタイプを決定するために用いられる。このフィーチャは、ニードル(102)がどこを通過しているかのフィードバックを提供するために及びニードルがそのターゲット深さ又は位置に到達したときを示すインジケータを提供するために、オペレータ又は技師にリアルタイムに適切な情報(in-situ)を提供する。更に、ニードルが予期しない変化を経験し又は計画された軌道又は深さから変わる場合に、アラーム136がトリガされることができる。
位置合わせモジュール144は、トランスデューサアレイ130のトランスデューサ131によって取得された2Dリアルタイム超音波画像を、再構成された3Dボリューム146と位置合わせする画像ベースのアルゴリズムを有する。オーバレイモジュール148は、3Dボリュームのような画像、アトラス又はモデル142、又は術前CT画像に、器具102のリアルタイム先端位置をオーバレイするように構成される。ニードル102は、オーバレイ画像152及び信号処理モジュール150を使用して、3D計画又は画像(モデル)142の上に視覚化されることができる。オーバレイ画像152は、組織タイプ、又はニードル軌道及び深さに関連する他のデータの標示を提供することができる。
オーバレイモジュール148は、リアルタイム画像において先端位置を生成し、例えばディスプレイ118のようなグラフィカルユーザインタフェース(GUI)上にそれを表示する。オーバレイモジュール148は、1又は複数の画像から画像データ、アトラス又はモデルを受け取り、画像、アトラス又はモデル内にトランスデューサの位置を示す。オーバレイ画像152は、関心領域132内に器具102の位置を表示するために、背景画像、アトラス又はモデルと正確に位置合わせされる。信号処理モジュール(又はアルゴリズム)150は、関心領域132内の器具102の位置及び向きを決定する。
ワークステーション112は、被検体160(患者又はボリューム)の内部画像及びオーバレイ画像152をビューするためのディスプレイ118を有する。ディスプレイ118は、ユーザが、ワークステーション112並びにそのコンポーネント及び機能、又はシステム100内の他の構成要素とインタラクトすることを可能にすることができる。これは、ワークステーション112からのユーザフィードバック及びそれとのインタラクションを可能にするために、キーボード、マウス、ジョイスティック、触覚装置又は任意の他の周辺機器又は制御装置を含むことができるインタフェース120によって一層容易にされる。
図2A及び図2Bを参照して、脊椎の超音波画像200及び202がそれぞれ示されている。画像200及び202は、脊髄突起204及び黄色靱帯/後硬膜領域206を示す。更に、椎体208(及び/又は前硬膜)が識別される。図2Aにおいて、ニードルは、目に見えず又はほとんど見えない。図2Bにおいて、正確な空間ニードルポジショニングのためにニードル先端を強調表示する処理モジュール又はアルゴリズム150が用いられる。ニードル先端における信号解析は更に、ニードルが存する組織のタイプの標示を与える。オーバレイ212は、ニードルの先端を強調表示するために円210を含むとともに、信号クラス、及び信号解析からの信号クラスに基づいて先端が埋め込まれる組織(例えば、この例では脂肪)を示す組織インジケータ214を有する。
図3を参照して、フロー図は、本原理により器具を追跡する方法を示す。ブロック302において、線形プローブ(例えば超音波プローブ)の仰角方向の迅速なスイープが、例えばスペックル相関方法を使用して2D画像143から患者の脊椎構造の3Dボリュームをブロック303において構成するために用いられることができる。ブロック304において、3Dボリュームは、脊椎骨145の統計モデル、アトラス又は術前CT画像(モデル146)と位置合わせされることができる。これは、インターベンション前の解剖学的構造の3D理解を改善する。ブロック306において、ライブ画像147(例えば超音波画像)が、スライス−ボリューム融合アルゴリズムを使用して、この3D計画149(モデル、画像アトラス、その他を含む)と位置合わせされることができる。ブロック308において、器具102(例えばニードル)が、患者に挿入され、位置特定される。ニードルは、ニードル追跡技術(in-situ)技術を使用して(例えばニードル上の1又は複数の超音波トランスデューサ134を用いて)3次元で追跡されることができる。ブロック310において、in-situ技術が、ニードルが現在通っている又は接触している組織のタイプを決定するために用いられる。このフィーチャは、ニードルがどこを通り抜けているかに関するフィードバックを提供するとともに、ニードルがそのターゲット深さ又は位置に到達したときを示すインジケータを提供するために、オペレータ又は技師にリアルタイムの適切な(in-situ)情報を提供する。更に、アラームは、ニードルが予期しない変化を経験する又は計画された軌道又は深さから変える場合にトリガされることができる。ブロック310において、ニードル102は、オーバレイ画像及び信号処理アルゴリズムを使用して3D計画又は画像上に視覚化されることができる。オーバレイは、組織タイプの標示又はニードル軌道及び深さに関連する他のデータを提供することができる。
ブロック308を再び参照して、超音波画像に属する基準フレームに対するニードル先端の空間位置は、in-situ技術によって知られている。in-situ技術は、リアルタイムのイメージング表示に加えてニードル又は器具を追跡する能力に関連する。特に有用な実施形態において、in-situ技術は、ニードル又は器具上又はその中に取り付けられ、ニードル又は器具の関心位置に位置される1又は複数のセンサ、トランスデューサ、トランスポンダなどの使用を含む。特に有用な実施形態において、イメージングプローブからのビームが視野をスウィープするとき、ニードル先端のセンサが、イメージングプローブから信号を受け取る。これらのビームの到達時間は、センサからイメージングアレイまでの距離を与え、ビームの振幅プロファイルが、横方向の又は角度方向の距離を与える。同じ原理の他の変形例が更に用いられることができる。例えば、先端のセンサは、能動的であり、それ自身の超音波信号を生成することができ、又は受動的であり、受信した超音波信号を反射し又は応答することができる。
図4を参照して、脊椎402の一部が、ブロック310に従うアプリケーションを説明するために示されている。脊椎402は、それらの間に配置される椎間板412を有する椎骨410を有する。硬膜上腔414は、最も外側の組織層(硬膜)416と骨418の内部表面及び支持靭帯の間の空間領域である。硬膜上腔414は、血管及び神経根に加えて脂肪組織を含む。
単一素子(又は複数素子の)超音波トランスデューサ404は更に、ニードル406の先端を囲む組織の音響特性を測定するために好適に用いられる。分類技法を使用することにより、筋肉、靭帯、脂肪、骨及び神経組織を区別することができ、従って、ニードル406の先端が黄色靱帯を横断して脂肪硬膜上腔414に入るときを臨床医に知らせることができ、又は、ニードル406が脊髄420に挿入される場合に医師に警告し、麻酔を所望しない領域への注入によるひどい合併症を回避することができる。
ニードル406の先端におけるトランスデューサ404は、好適には、パルスエコーモードにおいて用いられる。その動作周波数は、それがトランスデューサ404(例えば、20〜40MHzのレンジにおいて)の周り2、3ミリメートルの組織を探査するものである。このような高周波数素子は、その小さい寸法のためニードルに容易に埋め込まれ、流体静力学レジメにおいてより低い周波数(〜3MHz)のイメージングプローブから信号を受け取ることがなお可能であることに注意されたい。深さの関数としての超音波減衰、信号の検出されたエンベロープの時間フィルタリング及びフィッティングにより測定される周波数依存の減衰のようなパルスエコー信号の特性が、例えば信号分類のために用いられる。さまざまな組織の特徴及び特性は、あらかじめ特徴付けられることができ、リアルタイム信号と比較して信号分類を実施するために用いられることができる。2つの直交する又は角度をつけられたセンサが更に、媒質の異方性を測定する(靭帯は非常に異方性であるが、硬膜上腔414は等方性である)ために使用されることができる。
(強調表示される追跡された先端位置及び組織タイプクラシファイアを有する改善された表示と組み合わせられる)ニードル先端の又はその近くのセンサの存在は、組織の層に器具を注入しセンシティブな組織を回避するための高度に信頼できるツールを提供する。信号処理解析が、ニードル又は器具の位置に関してオペレータに信頼を与えるために位置特定及び分類を実施するために使用される。特に有用な例において、(ニードル位置特定モジュール及び組織区別モジュールを使用する、又は組織区別モジュールのみを使用する)超音波ガイダンス下のニードル挿入が、疼痛管理及び局所麻酔プロシージャ、癌生検を含むすべての種類の生検、羊水穿刺、脊椎穿剌、脈管アクセス、ドレナージプロシージャなどのために、用いられることができる。
図5を参照して、刺入器具を追跡する別の実施形態が示される。ブロック502において、複数のアレイ位置からの信号が、関心領域の1又は複数のリアルタイム画像を提供するために生成される。有用な実施形態において、リアルタイム画像が、超音波で収集される。超音波画像は、2次元画像を含むことができ、3次元ボリュームを形成するために再構成される必要がありうる。3次元の超音波画像が用いられてもよい。ブロック504において、関心領域の3次元画像ボリュームは、1又は複数のリアルタイム画像の2次元画像から再構成されることができる。ブロック506において、リアルタイムに取得される2次元画像は、器具の視覚化を改善するために、関心領域の3次元画像ボリューム及び/又は基準画像(アトラス、画像、モデル、その他)と位置合わせされることができる。一実施形態において、基準画像は、1又は複数の椎骨(又は他の骨)を含むことができる。
ブロック508において、本体を有する刺入器具が提供され、刺入器具は、本体上の関心位置に搭載される少なくとも1つのセンサを有する。センサは、複数のアレイ位置からの信号に応答する。
ブロック510において、刺入器具の位置及び向きが、信号処理モジュールを使用して、複数のアレイ位置からの信号に従って決定される。一実施形態において、刺入器具用のセンサは、刺入器具の位置及び向きを決定するために複数のアレイ位置からのタイムオブフライト(飛行時間)を測定するように構成される。ブロック512において、関心位置が位置付けられている媒質が、複数のアレイ位置からの信号に対するセンサの応答に基づいて分類される。ブロック514において、関心位置の位置を識別し、関心位置が位置付けられている媒質についてのフィードバックを提供するために、オーバレイ画像が、生成され、1又は複数のリアルタイム画像と位置合わせされる。位置は、好適にはオーバレイ画像において強調表示され、媒質(例えば組織タイプ)が、オーバレイ画像内に示されることができる。ブロック516において、刺入器具はニードルを含むことができ、関心位置は、ニードルの遠位先端を含むことができ、媒質は、組織タイプを含むことができる。例えば鎮痛剤のような薬剤が、選択された組織タイプがオーバレイ画像に示されるときに、ニードルを通じて注入されることができる。例えば、硬膜外ニードルが用いられる場合、脂肪組織が靭帯組織の後に遭遇されるとき、硬膜上腔に到達し、薬剤は投与されることができる。ブロック518において、オーバレイ画像は、1又は複数のリアルタイム画像上に表示される。
添付の請求項を解釈する際、以下のことが理解されるべきである:
a)「含む、有する」という語は、与えられた請求項に列挙されるもの以外の別の構成要素又は工程の存在を除外しない;
b)構成要素に先行する「a」又は「an」の語は、このような構成要素の複数の存在を除外しない;
c)請求項における任意の参照符号は、それらの範囲を制限しない;
d)いくつかの「手段」は、同じアイテムによって、又はハードウェア又はソフトウェア実現される構造又は機能によって、表現されることができる;及び
e)特に示されない限り、工程の特定のシーケンスが必要とされることを意図しない。
スマートニードル及び進化した画像融合を使用する硬膜外インターベンションにおける刺入器具ガイダンスのための好適な実施形態(説明的なものであり制限することを意図しない)を記述しているが、変更及び変化が、上述の教示を考慮して当業者によって達成されることができることに注意されたい。変更は、開示される開示の特定の実施形態について行われることができ、かかる変更は、添付の請求項によって概略を示されるここに開示される実施形態の範囲内にある。特許の法律によって要求される詳細及び特殊性を記述しているが、特許証によって保護されることが主張され望まれるものは、添付の請求項に示される。

Claims (19)

  1. 刺入器具を追跡するシステムであって、
    関心領域の1又は複数のリアルタイム画像を提供するために複数のアレイ位置から超音波信号を送信する超音波トランスデューサアレイと、
    本体を有する刺入器具であって、前記本体上の関心位置に取り付けられる少なくとも1つの超音波トランスデューサを有し、前記少なくとも1つの超音波トランスデューサが前記複数のアレイ位置から送信される超音波信号に応答する、刺入器具と、
    前記複数のアレイ位置から送信される超音波信号に対する前記少なくとも1つの超音波トランスデューサの応答に基づいて、前記刺入器具の位置及び向きを決定する信号処理モジュールであって、前記信号処理モジュールは更に、前記複数のアレイ位置から送信される超音波信号に応じて前記少なくとも1つの超音波トランスデューサによって受信されるパルスエコー信号に基づいて、前記関心位置が位置付けられている組織の媒質を分類するよう構成され、前記パルスエコー信号が前記組織の音響特性を測定するよう構成される、信号処理モジュールと、
    前記関心位置の位置を識別し及び前記関心位置が位置付けられている媒質についてのフィードバックを提供するために、前記1又は複数のリアルタイム画像に位置合わせされるオーバレイ画像を生成するオーバレイモジュールと、
    前記1又は複数のリアルタイム画像上に、前記オーバレイ画像の視覚的フィードバックを提供するディスプレイと、
    を有するシステム。
  2. 前記超音波トランスデューサアレイがアレイ用超音波トランスデューサを有し、前記1又は複数のリアルタイム画像が2次元画像を含み、前記システムが更に、前記2次元画像から関心領域の3次元画像ボリュームを再構成する3次元再構成モジュールを有する、請求項1に記載のシステム。
  3. (i)関心領域の3次元画像ボリュームと前記2次元リアルタイム画像の少なくとも1つを位置合わせする、又は(ii)関心領域の3次元画像ボリュームと基準画像を位置合わせする、位置合わせモジュールを更に有する、請求項2に記載のシステム。
  4. 前記刺入器具がニードルを有し、前記関心位置が、ニードルの遠位先端を含む、請求項1に記載のシステム。
  5. 前記媒質は、組織タイプを有し、前記組織タイプは、薬剤が前記ニードルを通じていつ媒質に注入されるべきかを示すインジケータとして用いられる、請求項4に記載のシステム。
  6. 前記組織タイプが、前記ニードルを通じていつ薬剤を注入するかを示すインジケータとして、前記オーバレイ画像に表示される、請求項5に記載のシステム。
  7. 前記刺入器具の前記少なくとも1つの超音波トランスデューサが、前記刺入器具の位置及び向きを決定するために前記複数のアレイ位置からのタイムオブフライトを測定する、請求項1に記載のシステム。
  8. 刺入器具を追跡するシステムであって、前記刺入器具は、前記刺入器具の遠位先端位置に又はその近傍に取り付けられた少なくとも1つの超音波トランスデューサを有し、前記追跡は、超音波トランスデューサアレイの複数のアレイ位置から送信される超音波信号に基づき、前記システムが、
    前記複数のアレイ位置から送信される超音波信号に対する前記少なくとも1つの超音波トランスデューサの応答に基づいて、前記刺入器具の位置及び向きを決定する処理と、
    前記複数のアレイ位置から送信される超音波信号に応じて前記少なくとも1つの超音波トランスデューサによって受信されるパルスエコー信号に基づいて、前記刺入器具の先端が位置付けられる組織のタイプを分類する処理であって、前記パルスエコー信号が、前記組織の音響特性を測定するよう構成される、処理と、
    を実行する信号処理モジュールを有する、システム。
  9. 関心領域の1又は複数のリアルタイム画像を提供するために、前記複数のアレイ位置から超音波信号を送信する術中超音波トランスデューサアレイを更に有する、請求項8に記載のシステム。
  10. 前記1又は複数のリアルタイム画像と位置合わせされるオーバレイ画像を生成するオーバレイモジュールを更に有し、前記オーバレイ画像は、前記刺入器具の強調表示される位置及び前記組織タイプのアイデンティフィケーションを含む、請求項9に記載のシステム。
  11. 前記1又は複数のリアルタイム画像に前記オーバレイ画像の視覚的フィードバックを提供するディスプレイを更に有する、請求項10に記載のシステム。
  12. 前記1又は複数のリアルタイム画像は1又は複数の2次元画像を有し、前記システムが更に、前記1又は複数の2次元画像から前記関心領域の3次元画像ボリュームを再構成する3次元再構成モジュールを有する、請求項11に記載のシステム。
  13. 前記1又は複数の2次元リアルタイム画像を前記関心領域の3次元画像ボリュームと位置合わせする位置合わせモジュールを更に有する、請求項12に記載のシステム。
  14. 前記位置合わせモジュールは、基準画像を、前記関心領域の3次元画像ボリュームと位置合わせするように構成される、請求項13に記載のシステム。
  15. 前記刺入器具がニードルを有する、請求項8に記載のシステム。
  16. 前記組織タイプが、薬剤が前記刺入器具を通じていつ注入されるべきかを示すインジケータとして用いられる、請求項8に記載のシステム。
  17. 前記刺入器具は、硬膜外インターベンションに関して追跡される、請求項8に記載のシステム。
  18. 本体、及び前記本体上の関心位置に取り付けられる少なくとも1つの超音波トランスデューサを有する刺入器具を追跡する方法であって
    関心領域の1又は複数のリアルタイム画像を生成するように術中超音波トランスデューサアレイの複数のアレイ位置から超音波信号を送信するステップと、
    信号処理モジュールを使用して、前記複数のアレイ位置から送信される超音波信号に対する前記少なくとも1つの超音波トランスデューサの応答に基づいて、前記刺入器具の位置及び向きを決定するステップと、
    前記複数のアレイ位置から送信される超音波信号に応じて前記少なくとも1つの超音波トランスデューサによって受信されるパルスエコー信号に基づいて、前記関心位置が位置付けられている組織の媒質を分類するステップであって、前記パルスエコー信号は、前記組織の音響特性を測定するよう構成される、ステップと、
    オーバレイモジュールを使用して、前記1又は複数のリアルタイム画像に位置合わせされるオーバレイ画像を生成するステップと、
    前記関心位置の位置を識別し、前記関心位置が位置付けられている媒質についてのフィードバックを提供するステップと、
    前記1又は複数のリアルタイム画像上に前記オーバレイ画像を表示するステップと、
    を有する方法の各ステップをコンピュータに実行させるプログラムコードを記憶したコンピュータ可読記憶媒体
  19. 前記1又は複数のリアルタイム画像である2次元画像から、前記関心領域の3次元画像ボリュームを再構成するステップと、
    リアルタイムに取得された2次元画像を、前記関心領域の3次元画像ボリューム及び/又は基準画像と位置合わせするステップと、
    コンピュータに実行させるプログラムコードを更に記憶した、請求項18に記載のコンピュータ可読記憶媒体
JP2016541048A 2013-12-20 2014-12-16 刺入器具を追跡するシステム及び方法 Active JP6483133B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361918895P 2013-12-20 2013-12-20
US61/918,895 2013-12-20
PCT/IB2014/066943 WO2015092667A1 (en) 2013-12-20 2014-12-16 System and method for tracking a penetrating instrument

Publications (3)

Publication Number Publication Date
JP2016540604A JP2016540604A (ja) 2016-12-28
JP2016540604A5 JP2016540604A5 (ja) 2017-11-24
JP6483133B2 true JP6483133B2 (ja) 2019-03-13

Family

ID=52465561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016541048A Active JP6483133B2 (ja) 2013-12-20 2014-12-16 刺入器具を追跡するシステム及び方法

Country Status (7)

Country Link
US (1) US10595816B2 (ja)
EP (2) EP3542725B1 (ja)
JP (1) JP6483133B2 (ja)
CN (1) CN106061424B (ja)
BR (1) BR112016013880A2 (ja)
RU (1) RU2688316C1 (ja)
WO (1) WO2015092667A1 (ja)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10154826B2 (en) 2013-07-17 2018-12-18 Tissue Differentiation Intelligence, Llc Device and method for identifying anatomical structures
US10716536B2 (en) 2013-07-17 2020-07-21 Tissue Differentiation Intelligence, Llc Identifying anatomical structures
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
CN105616003B (zh) * 2015-12-24 2017-11-21 电子科技大学 一种基于径向样条插值的软组织三维视觉跟踪方法
CN113729977A (zh) * 2016-02-12 2021-12-03 直观外科手术操作公司 用于在图像引导手术中使用配准荧光透视图像的系统和方法
US11986341B1 (en) 2016-05-26 2024-05-21 Tissue Differentiation Intelligence, Llc Methods for accessing spinal column using B-mode imaging to determine a trajectory without penetrating the the patient's anatomy
US11701086B1 (en) 2016-06-21 2023-07-18 Tissue Differentiation Intelligence, Llc Methods and systems for improved nerve detection
CN106073898B (zh) * 2016-08-17 2019-06-14 北京柏惠维康医疗机器人科技有限公司 腹腔介入手术系统
CN106256310B (zh) * 2016-08-18 2018-04-13 中国科学院深圳先进技术研究院 自动调节鼻内镜位姿的方法和系统
WO2018060499A1 (en) 2016-09-30 2018-04-05 Koninklijke Philips N.V. Tracking a feature of an interventional device
WO2018089667A1 (en) * 2016-11-09 2018-05-17 Mayo Foundation For Medical Education And Research System and method for spinal imaging
US11439363B2 (en) * 2016-12-12 2022-09-13 Koninklijike Philips N.V. Smart tracked interventional tools including wireless transceiver
EP3554383B1 (en) * 2016-12-16 2020-04-22 Koninklijke Philips N.V. System for providing images for guiding surgery
US11628014B2 (en) 2016-12-20 2023-04-18 Koninklijke Philips N.V. Navigation platform for a medical device, particularly an intracardiac catheter
WO2018115200A1 (en) * 2016-12-20 2018-06-28 Koninklijke Philips N.V. Navigation platform for a medical device, particularly an intracardiac catheter
EP3600061A1 (en) 2017-03-31 2020-02-05 Koninklijke Philips N.V. Intravascular flow and pressure measurements
CN109242947B (zh) * 2017-07-11 2023-07-21 中慧医学成像有限公司 三维超声图像显示方法
EP3434192A1 (en) * 2017-07-26 2019-01-30 Koninklijke Philips N.V. Registration of x-ray and ultrasound images
CN107595387B (zh) * 2017-07-28 2020-08-07 浙江大学 一种基于超声拓片技术的脊椎图像生成系统以及脊柱手术导航定位系统
EP3675763B1 (en) * 2017-08-28 2023-07-26 Koninklijke Philips N.V. Automatic field of view updating of position tracked interventional device
EP3456267A1 (en) * 2017-09-14 2019-03-20 Koninklijke Philips N.V. Ultrasound image processing
EP3456266A1 (en) * 2017-09-14 2019-03-20 Koninklijke Philips N.V. Ultrasound image processing
US11759168B2 (en) 2017-11-14 2023-09-19 Koninklijke Philips N.V. Ultrasound vascular navigation devices and methods
US11123139B2 (en) * 2018-02-14 2021-09-21 Epica International, Inc. Method for determination of surgical procedure access
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
EP3840655B1 (en) * 2018-08-22 2024-10-09 Koninklijke Philips N.V. Constraining sensor tracking estimates in interventional acoustic imaging
US20210251697A1 (en) * 2018-08-22 2021-08-19 Koninklijke Philips N.V. 3d tracking of interventional medical devices
CN109223133A (zh) * 2018-11-07 2019-01-18 遵义医学院附属医院 超声引导经皮穿刺骨定位装置
CN111329585A (zh) * 2018-12-18 2020-06-26 深圳迈瑞生物医疗电子股份有限公司 超声图像处理方法及超声成像设备
CN109965905B (zh) * 2019-04-11 2020-02-11 复旦大学 一种基于深度学习的造影区域检测成像方法
JP7171948B2 (ja) * 2019-05-17 2022-11-15 コーニンクレッカ フィリップス エヌ ヴェ 対象の移動を追跡するための超音波システム及び方法
US20220287686A1 (en) * 2019-07-31 2022-09-15 Koninklijke Philips N.V. System and method for real-time fusion of acoustic image with reference image
EP4302697A3 (en) * 2019-08-15 2024-03-06 FUJI-FILM Corporation Ultrasonic diagnostic apparatus and control method for ultrasonic diagnostic apparatus
AU2020334982A1 (en) * 2019-08-16 2022-03-10 Massachusetts Institute Of Technology Systems and methods for portable ultrasound guided cannulation
JP7152377B2 (ja) * 2019-09-27 2022-10-12 富士フイルム株式会社 放射線画像処理装置、方法およびプログラム
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
DE102020205804A1 (de) * 2020-05-08 2021-11-11 Siemens Healthcare Gmbh Unterstützung einer medizinischen Intervention
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
US20220087638A1 (en) * 2020-09-18 2022-03-24 B-K Medical Aps Image Fusion-Based Tracking without a Tracking Sensor
US12048491B2 (en) * 2020-12-01 2024-07-30 Bard Access Systems, Inc. Ultrasound probe with target tracking capability
US12025489B1 (en) 2023-06-23 2024-07-02 Deepsight Technology, Inc. Fiber-optical sensor system for ultrasound sensing and imaging

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4249539A (en) 1979-02-09 1981-02-10 Technicare Corporation Ultrasound needle tip localization system
US4697595A (en) * 1984-07-24 1987-10-06 Telectronics N.V. Ultrasonically marked cardiac catheters
JPH04129543A (ja) * 1990-09-20 1992-04-30 Toshiba Corp カテーテルの先端部検出装置
US6048312A (en) 1998-04-23 2000-04-11 Ishrak; Syed Omar Method and apparatus for three-dimensional ultrasound imaging of biopsy needle
JP4095332B2 (ja) * 2001-04-24 2008-06-04 株式会社東芝 超音波診断装置
US20040013129A1 (en) * 2001-08-07 2004-01-22 Xiaojun Fang Method and protocol for packetized optical channel based on digital wrapper
US6776760B2 (en) * 2002-03-06 2004-08-17 Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California Multi-mode processing for ultrasonic imaging
US7068867B2 (en) * 2003-01-02 2006-06-27 Glucon Medical Ltd Ultrasonic position indicator
US20060241450A1 (en) * 2003-03-17 2006-10-26 Biotelligent Inc. Ultrasound guided tissue measurement system
CA2433205A1 (en) * 2003-03-18 2004-09-18 James Alexander Keenan Drug delivery, bodily fluid drainage, and biopsy device with enhanced ultrasonic visibility
RU2256169C1 (ru) 2004-02-13 2005-07-10 Общестов с ограниченной ответственностью "Институт рентгеновской оптики" Способ и устройство для исследования объекта в рассеянном и/или прошедшем излучении
EP1740102A4 (en) * 2004-03-23 2012-02-15 Dune Medical Devices Ltd EVALUATION TOOL FOR CLEAN EDGES
JP4543025B2 (ja) * 2006-10-23 2010-09-15 株式会社東芝 超音波診断装置
DE102008030244A1 (de) 2008-06-25 2009-12-31 Siemens Aktiengesellschaft Verfahren zur Unterstützung von perkutanen Interventionen
JP5889874B2 (ja) * 2010-05-03 2016-03-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 介入器具に搭載される超音波トランスデューサの超音波トラッキング
BR112013012197A8 (pt) * 2010-11-18 2019-02-05 Koninl Philips Electronics Nv conjunto transdutor ultrassônico, sistema transdutor ultrassônico, ponta de cateter, método de fabricação de conjuntos transdutores ultrassônicos e método de fabricação de sistemas transdutores ultrassônicos
JP5961623B2 (ja) * 2010-11-19 2016-08-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元超音波撮像を用いて外科器具の挿入を案内する方法
WO2013001437A1 (en) * 2011-06-29 2013-01-03 Koninklijke Philips Electronics N.V. A tracking system for tracking interventional tools in ultrasound guided interventions and an ultrasound diagnostic system comprising such a tracking system
CN102961166A (zh) * 2011-08-31 2013-03-13 通用电气公司 用于检测和跟踪针的方法
EP2763591A4 (en) 2011-10-09 2015-05-06 Clear Guide Medical Llc GUIDING INTERVENTIONAL IN SITU IMAGES BY FUSIONING AN ULTRASONIC VIDEO

Also Published As

Publication number Publication date
EP3086736B8 (en) 2020-04-01
RU2688316C1 (ru) 2019-05-21
JP2016540604A (ja) 2016-12-28
CN106061424A (zh) 2016-10-26
BR112016013880A2 (pt) 2017-08-08
US20160317119A1 (en) 2016-11-03
EP3086736A1 (en) 2016-11-02
EP3542725A1 (en) 2019-09-25
US10595816B2 (en) 2020-03-24
RU2016129318A (ru) 2018-01-25
WO2015092667A1 (en) 2015-06-25
CN106061424B (zh) 2019-04-30
EP3086736B1 (en) 2020-02-12
EP3542725B1 (en) 2021-10-13

Similar Documents

Publication Publication Date Title
JP6483133B2 (ja) 刺入器具を追跡するシステム及び方法
JP6514213B2 (ja) 超音波ナビゲーション/組織特徴づけの組み合わせ
EP2858619B1 (en) Neuronavigation-guided focused ultrasound system
US9782147B2 (en) Apparatus and methods for localization and relative positioning of a surgical instrument
Manbachi et al. Guided pedicle screw insertion: techniques and training
Elsharkawy et al. Localization of epidural space: A review of available technologies
KR102245665B1 (ko) 이미지 가이드 시술 시스템
JP6568478B2 (ja) 低侵襲治療のための計画、誘導およびシミュレーションシステムおよび方法
Comeau et al. Intraoperative US in interactive image-guided neurosurgery.
JP6404713B2 (ja) 内視鏡手術におけるガイド下注入のためのシステム及び方法
Ungi et al. Spinal needle navigation by tracked ultrasound snapshots
CN107920775A (zh) 相对于解剖特征的探针超声引导
US20140276001A1 (en) Device and Method for Image-Guided Surgery
US20150223903A1 (en) Method and system for transcranial photoacoustic imaging for guiding skull base surgeries
CN106030266B (zh) 温度分布确定装置
WO2013119801A2 (en) Three-dimensional guided injection device and methods
Shahin et al. Ultrasound-based tumor movement compensation during navigated laparoscopic liver interventions
Zhang et al. Toward dynamic lumbar punctures guidance based on single element synthetic tracked aperture ultrasound imaging
EP3747387B1 (en) Wrong level surgery prevention
Ameri Augmented Reality Ultrasound Guidance in Anesthesiology
Peters IMAGE-GUIDED SURGICAL PROCEDURES AND INTERVENTIONS: CHALLENGES AND OPPORTUNITIES
Nagpal et al. A global CT to US registration of the lumbar spine
WO2020106664A1 (en) System and method for volumetric display of anatomy with periodic motion
Peters et al. Comprehensive approach to image-guided surgery

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190213

R150 Certificate of patent or registration of utility model

Ref document number: 6483133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250