JP2017506537A - 超音波ガイド処置に対するゾーン視覚化 - Google Patents

超音波ガイド処置に対するゾーン視覚化 Download PDF

Info

Publication number
JP2017506537A
JP2017506537A JP2016552507A JP2016552507A JP2017506537A JP 2017506537 A JP2017506537 A JP 2017506537A JP 2016552507 A JP2016552507 A JP 2016552507A JP 2016552507 A JP2016552507 A JP 2016552507A JP 2017506537 A JP2017506537 A JP 2017506537A
Authority
JP
Japan
Prior art keywords
ultrasound
volume
zone
anatomy
procedurally
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016552507A
Other languages
English (en)
Other versions
JP6623166B2 (ja
Inventor
ピンクン ヤン
ピンクン ヤン
ヨッヘン クルーカー
ヨッヘン クルーカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2017506537A publication Critical patent/JP2017506537A/ja
Application granted granted Critical
Publication of JP6623166B2 publication Critical patent/JP6623166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/085Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating body or organic structures, e.g. tumours, calculi, blood vessels, nodules
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30081Prostate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Vascular Medicine (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

自動ゾーン視覚化に対するシステムは、超音波プローブ31及び超音波撮像ワークステーション32を採用する。動作において、超音波プローブ31は、解剖学的領域をスキャンし、超音波撮像ワークステーション32は、超音波プローブ31による前記解剖学的領域のスキャンに応答して患者空間内の解剖学的構造の超音波体積42の生成を追跡する。超音波撮像ワークステーション32は、手続的に定義されたゾーンでラベル付けされた前記解剖学的構造の超音波体積モデル41から得られた超音波体積42内の前記解剖学的構造の手続的に定義されたゾーンのラベル付けを追跡し、これにより前記解剖学的構造の超音波ガイド視覚化を容易化する。

Description

本発明は、広くは、超音波ガイド処置(ultrasound-guided procedure、例えば、前立腺生検)中の視覚的ガイダンスに対する解剖学的構造の特定のゾーンの自動位置特定に関する。本発明は、特には、超音波ガイド処置中のゾーンによってガイダンスを視覚化する基準として解剖学的構造の三次元(3D)モデルのゾーンラベル付け(zone labeling)に関する。
術中解剖学的画像に対する術前解剖学的画像の医療画像位置合わせは、画像ガイドインタベンション/手術/診断処置を容易化するのに使用されている。医療画像位置合わせに対する主要なゴールは、同じ又は異なる撮像モダリティ内の同じ解剖学的構造の同じ又は異なるビューをアライン(align)する幾何学的変換を計算することである。
より具体的には、前立腺がんは、西欧諸国において6人に1人の男性を侵し、アメリカ人のがん死亡の2番目の主な原因である。異なるスキーム(例えば、六分儀、拡張12コア等)を用いる経直腸的超音波(TRUS)ガイド系統的生検は、臨床診療におけるケアの標準であると見なされる。しかしながら、二次元(2D)超音波撮像が、通常は使用されるので、視野は限定的である。更に、超音波撮像下の前立腺内のランドマークの欠如により、超音波ベースの前立腺撮像は、生検に対する所望の場所に正確にナビゲートするにはかなりの量の訓練及び経験を必要とする。
重要なことは、前立腺生検に関する泌尿器学の文献によると、がんの場所が、前立腺内に一様に分布していないことである。研究は、がんを検出するより高い可能性を持つ前立腺内の高リスク領域が存在することを示している。既知の系統的生検スキームは、特定数の生検で最大のがん検出率を達成するようにこれらの高リスク領域をカバーするように特別に設計されている。しかしながら、現在の超音波撮像ガイダンスの限界により、いくつかのゾーン(例えば、前立腺のケラチン(horns))が、多くの場合に見逃される傾向にあるという傾向が存在する。これは、より高い偽陰性生検の結果となりえ、一部のがんは見逃されるかもしれない。
要約すると、前立腺の一部の高リスク領域は、撮像ガイダンス技術の限界により生検中に大幅にアンダーサンプリングされることができることが知られている。このような限界は、医師の経験により補償されうるのに対し、本発明は、自動ゾーン識別で医師を援助することにより一貫して生検の結果を改良する系統的な技術的アプローチを提供する。より具体的には、解剖学的構造の超音波モデルは、前記解剖学的構造に対する超音波ガイド処置を最適化するように設計されたスキームから得られる2以上の手続的に定義された(procedurally-defined)ゾーンに対してラベル付けされる。例えば、前立腺の超音波モデルは、前立腺の超音波ガイド生検サンプリングの既知のスキーム、特に臨床診療におけるケアの標準であると見なされるスキーム(例えば、六分儀、拡張12コア、飽和サンプリング、前方サンプリング等)と関連付けられた手続的に定義されたゾーンによりラベル付けされうる。
本発明の一形式は、超音波プローブ及び超音波撮像ワークステーションを採用する自動ゾーン視覚化に対するシステムである。動作において、超音波プローブは、解剖学的領域をスキャンし、前記超音波撮像ワークステーションは、前記超音波プローブによる前記解剖学的領域のスキャンに応答して患者空間内の解剖学的構造の超音波体積の生成を追跡する。前記超音波撮像ワークステーションは、手続的に定義されたゾーンでラベル付けされた前記解剖学的構造の超音波体積モデルから得られた前記超音波体積内の前記解剖学的構造の前記手続的に定義されたゾーンのラベル付けを更に追跡し、これにより前記解剖学的構造の超音波ガイド視覚化を容易化する。
本発明の前述の形式及び他の形式並びに本発明の様々なフィーチャ及び利点は、添付の図面と併せて読まれる本発明の様々な実施例の以下の詳細な記載から更に明らかになる。詳細な記載及び図面は、本発明を限定するのではなく、単に説明し、本発明の範囲は、添付の請求項及びその同等物により規定される。
本発明によるゾーンラベル付け超音波体積を示す。 本発明による自動視覚化方法の典型的な実施例を表すフローチャートを示す。 図2に示されたフローチャートの典型的な実施を示す。
本発明の目的に対して、用語「手続的に定義されたゾーン」は、解剖学的構造に対する超音波ガイド処置を最適化するように設計されたスキームから得られる解剖学的構造のゾーンとして広く定義される。例えば、前立腺の超音波ガイド生検サンプリングに対する既知の又は提案されたスキーム、特に臨床診療におけるケアの標準であると見なされるスキーム(例えば、六分儀、拡張12コア、飽和サンプリング、前方サンプリング等)と関連付けられる手続的に定義されたゾーンによりラベル付けされうる。
また、本発明の目的に対して、用語「追跡」、「再構成」、「セグメント化」及び「位置合わせ」並びに関連する用語は、本発明の技術分野において知られているように広く解釈されるべきである。
実際に、本発明は、いかなる解剖学的領域(例えば、頭部、胸部、骨盤等)及び解剖学的構造(例えば、骨、器官、循環系、消化系等)にも適用する。
本発明の理解を容易化するために、前立腺の超音波撮像の自動ゾーン視覚化を対象にする、本発明の典型的な実施例が、ここで提供される。それでも、当業者は、どのように全ての解剖学的領域及び構造に対する超音波撮像の自動ゾーン視覚化を実行するかを理解する。
図1を参照すると、術前超音波システム20は、対象10が2D超音波プローブ21によりスキャンされると、対象10の前立腺11の解剖学的組織の超音波画像23のストリームを生成するように2D超音波プローブ21及び超音波撮像ワークステーション22を採用する。図2及び3と併せて更に説明されるように、術前超音波システム20は、前記超音波画像から再構成された前立腺11のX個の超音波体積を取得するようにX個の対象10をスキャンし、これによりドットのマトリクスにより象徴的に示されるように手続的に定義されたゾーンでラベル付けされた前立腺11の体積モデル41zを構築するのに使用される。代わりに、システム20は、3D超音波プローブ(図示されない)を採用してもよい。
術中超音波システム30は、患者が2D超音波プローブ31によりスキャンされると、患者12の前立腺13の解剖学的組織の超音波画像33のストリームを生成するように2D超音波プローブ31及び超音波撮像ワークステーション32を採用する。図2及び3と併せて更に説明されるように、術前超音波システム20は、前立腺13の超音波体積42zを取得するように患者12をスキャンし、超音波体積42zに対するゾーンラベル付け体積モデル41zの位置合わせを追跡し、これによりドットのマトリクスにより象徴的に示されるように前記手続的に定義されたゾーンで超音波体積42zをラベル付けするのに使用される。
モデル41及び体積42内のゾーンラベル付け前立腺の画像が、解剖学的に正確であることを意図されないが、ここで提供されるゾーンラベル付けモデル41z及び体積42zに基づく本発明の自動ゾーン視覚化の説明を容易化する目的でゾーンラベル付け前立腺の単純化された例としてのみ役立つことに注意されたい。
図2及び3を参照すると、フローチャート50(図2)のワークフローは、様々なリソース入力60、追跡される画像位置合わせ61、及び追跡される出力視覚化62を含む3つの重要な側面を包含する。
一般に、術前リソース60pは、各対象10(図1)に対する前立腺11のスキャンされた超音波画像23(又は代わりに1以上の対象10の前立腺11の3D超音波画像)のストリームを含む。術中リソース60iは、患者12(図1)の前立腺13のスキャンされた超音波画像33(又は代わりに患者12の前立腺13の3D超音波画像)のストリーム及び患者12がスキャンされる2D超音波プローブ31(図1)の追跡データTDを含む。出力視覚化62は、前記ゾーンを差別化する視覚化ストラテジ(例えば、色符号化、テキストラベル及び/又はオーディオフィードバック)によってリアルタイムで超音波画像33のリアルタイムストリームにおける前記ゾーンを象徴的に示す。
入力60と出力62との間で、画像位置合わせ61は、前立腺体積モデル41zを構築するプロセス、超音波画像ストリーム33から体積画像42の再構成を追跡するプロセス、体積画像42から体積モデル41zにセグメント化された前立腺をマッピングするプロセスを含む。これらの態様を行うことにより、前記ゾーンは、装置追跡データTDを使用することによりリアルタイム超音波ストリーミング33zにマッピングされることができる。
より具体的には、超音波システム30(図1)は、超音波撮像ワークステーション32の画面表示をキャプチャすることにより、又は内部転送モードにおいて超音波撮像ワークステーション32の出力ポートから直接的にのいずれかで超音波画像33をストリーミングしうる。2D超音波プローブ31の代わりに、3D超音波プローブが、2D画像から体積を再構成する必要なしに前立腺の3D画像を得るのに使用されることができる。
超音波システム30は、3D患者空間に対して超音波画像ストリーム33(又は3D画像)をマッピングするためにリアルタイムで2D超音波プローブ31の姿勢及び位置を得るのに追跡システムを採用する又は追跡システムと協働する。超音波プローブ31の姿勢及び位置は、いかなる既知の装置追跡技術(例えば、電磁追跡又は光学センサ追跡)でも使用することにより得られうる。
フローチャート50は、4つの主な段階S51乃至S54を持つ。フローチャート50の段階S51は、ワークステーション20(図1)が、手続的に定義されたゾーンを持つ前立腺体積モデル41を構築することを含む。特に、前立腺の統計的形状モデルが、対象10(図1)から遡及的に得られた形状を持つ訓練データセットを使用するワークステーション20により構築される。各形状に対して、対応する関心ゾーンは、ラベル付けされる。前記ゾーンは、前立腺の超音波ガイド生検サンプリングに対する既知の又は提案されたスキーム、特に臨床診療におけるケアの標準であると見なされるスキーム(例えば、六分儀、拡張12コア等)と関連付けられた手続的に定義されたゾーンである。統計的形状分析(例えば、主成分分析)を適用することにより、ラベル付けされた手続的に定義されたゾーンを持つ前立腺体積モデル41は、ワークステーション20により構築される。
一実施例において、好適な生検サンプリングスキームは、前立腺内の場所の個数N(典型的にはN≧10)を識別することにより前立腺体積モデル41に加えられる。各場所は、前立腺体積モデル41内の幾何学的対象(例えば、点、小さな球又は他の単純な形状(例えば、楕円体))として識別されることができる。これらの場所は、所望のスキームによって前立腺の系統的サンプリングをガイドするのに後で役立つことができる。
フローチャート50の段階S52は、ワークステーション30(図1)が超音波体積42を再構成することを含む。特に、患者12の前立腺13をスキャンする間に超音波プローブ31が追跡されると、超音波プローブ31の姿勢及び位置が既知である。この追跡データTDを使用することにより、ストリーム33の超音波フレームは、3D患者空間に変換される。全体的な前立腺13をカバーする超音波画像ストリーム33を得るように前立腺全体を通るスイープを実行することにより、前立腺を含む超音波体積42が、再構成される。代わりに、3Dプローブが取得に対して使用される場合、超音波ワークステーション32は、3D体積画像を直接的に提供するので、段階S52の再構成は、省略されてもよい。それでも、前記3Dプローブは、3D患者空間に対して超音波体積42を変換するために追跡される。
フローチャート50の段階S53は、ワークステーション30が、超音波体積42から前立腺をセグメント化し、前立腺体積モデル41を前記セグメント化された前立腺と位置合わせすることを含む。特に、セグメント化を実行する主な目的は、超音波画像ストリーム33に対して前立腺体積モデル41を直接的にマッピングすることは非常に困難であるので、超音波体積42に対する前立腺体積モデル41を位置合わせすることを援助することである。前記セグメント化は、二通りに実行されうる。第1のオプションは、フレームごとに超音波スイープデータをセグメント化することである。得られた2Dセグメント化シーケンスは、この場合、3Dセグメント化を得るように再構成段階S52と同じ変換を使用して3D空間にマッピングされる。代わりに、再構成された超音波体積42は、モデルベースのアプローチを使用することにより3D空間において直接的にセグメント化される。超音波体積42内の前立腺境界が、2D超音波画像ストリーム33ほどクリアでない場合、これら2つのオプションは、より良好なセグメント化性能を達成するように組み合わせられてもよい。
一度、再構成された超音波体積42がセグメント化されると、表面ベースの位置合わせ方法(例えば、反復的最近点ベースの位置合わせ)は、ゾーンラベル付け超音波体積42zを生じるように、前立腺体積モデル41を、再構成された超音波体積42のセグメント化された前立腺と位置合わせするように適用される。この位置合わせを用いて、前立腺体積モデル42zにおいてラベル付けされた手続的に定義されたゾーンは、患者空間にマッピングされる。利用可能なリアルタイム追跡情報を用いて、前記ゾーンは、超音波画像ストリーム33に対して変換されうる。
フローチャート50の段階S54は、ワークステーション30がリアルタイムでゾーン視覚化を表示することを含む。特に、一度、前記ゾーンが超音波画像ストリーム33にマッピングされると、手続的に定義されたゾーンは、交差される場合に超音波画像33z上で視覚化されることができる。交差したゾーンは、ゾーンラベルを表示して強調される。加えて、異なる視覚化されたゾーンは、色符号化、テキストラベル又はオーディオフィードバックを用いて差別化されうる。例えば、ゾーンのセットが超音波画像33zにより交差される間に、交差領域は、オーディオフィードバックあり又はなしで各対応する色又はラベルにおいて示される。追加又は代替アプローチとして、前記生検サンプリングスキームの場所は、超音波画像33zと一緒に視覚化される。これは、生検経路が前記サンプリングスキームの場所とアラインされるまでユーザが超音波プローブ31を見る方向を調整するのを助ける。
フローチャート50は、前記処置を完了すると終了される。
フローチャート50の代替実施例において、段階S51及び段階S53の位置合わせは、省略されてもよく、これにより前立腺体積モデル41は、X個の前の対象を使用してモデルを構成する代わりに再構成された超音波体積42を使用して定義されてもよい。特に、前記手続的に定義されたゾーンは、再構成された超音波体積42の術中セグメント化の幾何学的再分割(sub-division)に基づいて作成される。このような再分割の例は、(1)再構成された超音波体積42の術中セグメント化を正中矢状面に沿って二等分に分割し、「左」及び「右」ゾーンを作成すること、及び(2)再構成された超音波体積42の術中セグメント化において軸切断面を使用して3分の1に分割し、ベース/中間前立腺/軸ゾーンを作成することを含むが、これらに限定されない。
図1乃至3を参照すると、当業者は、解剖学的構造の超音波撮像ガイダンスの自動ゾーン視覚化を含むが、これに限定されない本発明の多くの利益を理解するだろう。
本発明の様々な実施例が図示及び記載されているが、ここに記載された本発明の実施例が例示的であり、本発明の真の範囲から逸脱することなしに様々な変更及び修正が行われてもよく、同等物が置換されてもよいことは、当業者により理解されるだろう。加えて、多くの修正が、中心的範囲から逸脱することなしに本発明の教示を適応させるように行われうる。したがって、本発明が、本発明を実行するのに期待されるベストモードとして開示された特定の実施例に限定されないが、本発明が、添付の請求項の範囲内に入る全ての実施例を含むことが意図される。

Claims (15)

  1. 自動ゾーン視覚化に対するシステムにおいて、前記システムが、
    解剖学的領域をスキャンするように動作可能な超音波プローブと、
    前記超音波プローブに動作可能に接続され、前記超音波プローブによる前記解剖学的領域のスキャンに応答して患者空間内の解剖学的構造の超音波体積の生成を追跡する超音波撮像ワークステーションと、
    を有し、
    前記超音波撮像ワークステーションが、手続的に定義されたゾーンでラベル付けされた前記解剖学的構造の超音波体積モデルから得られた前記超音波体積内の前記解剖学的構造の前記手続的に定義されたゾーンのラベル付けを追跡するように動作可能であり、
    前記超音波体積内の前記手続的に定義されたゾーンが、前記解剖学的構造の超音波ガイド視覚化を容易化する、
    システム。
  2. 前記超音波撮像ワークステーションが、前記超音波体積の追跡された生成に対して前記超音波体積モデルをマッピングする、請求項1に記載のシステム。
  3. 前記超音波撮像ワークステーションが、前記超音波体積の追跡された生成からの前記解剖学的構造のセグメント化に対して前記超音波体積モデルをマッピングする、請求項1に記載のシステム。
  4. 前記超音波撮像ワークステーションが、前記超音波体積内の前記解剖学的構造のセグメント化の幾何学的再分割モデルとして前記超音波体積モデルを生成する、請求項1に記載のシステム。
  5. 前記超音波プローブが、前記解剖学的構造の前記手続的に定義されたゾーンの少なくとも1つの視覚化をガイドするように動作可能であり、
    前記超音波撮像ワークステーションは、前記超音波プローブが前記解剖学的構造の前記手続的に定義されたゾーンの前記少なくとも1つの視覚化をガイドするのに応答して超音波画像を生成するように前記超音波プローブに動作可能に接続され、
    前記超音波画像が、前記ゾーンでラベル付けされた超音波体積から得られた前記手続的に定義されたゾーンの前記少なくとも1つを視覚化する、
    請求項1に記載のシステム。
  6. 前記超音波撮像ワークステーションが、前記患者空間内の前記超音波画像の生成を追跡し、前記超音波画像及び前記超音波体積の追跡交差の関数として前記超音波画像上の前記手続的に定義されたゾーンの前記少なくとも1つをゾーンラベル付けする、請求項5に記載のシステム。
  7. 前記超音波撮像ワークステーションが、前記超音波画像内で視覚化された少なくとも2つの手続的に定義されたゾーンを差別化する、請求項5に記載のシステム。
  8. 前記超音波画像内で視覚化された前記少なくとも2つの手続的に定義されたゾーンの差別化が、色符号化、テキストラベル及びオーディオフィードバックの少なくとも1つを含む、請求項7に記載のシステム。
  9. 自動ゾーン視覚化に対する方法において、前記方法が、
    解剖学的領域の超音波スキャンから得られた解剖学的構造の超音波体積を生成するステップと、
    手続的に定義されたゾーンでラベル付けされた前記解剖学的構造の超音波体積モデルから得られた前記超音波体積内の前記解剖学的構造の手続的に定義されたゾーンのラベル付けを追跡するステップと、
    を有し、
    前記超音波体積内の前記手続的に定義されたゾーンが、前記解剖学的構造の超音波ガイド視覚化を容易化する、
    方法。
  10. 前記超音波体積内の前記解剖学的構造の前記手続的に定義されたゾーンのラベル付けの追跡が、
    前記超音波体積の追跡された生成に対して前記超音波体積モデルをマッピングする、
    ことを含む、請求項9に記載の方法。
  11. 前記超音波体積内の前記解剖学的構造の前記手続的に定義されたゾーンのラベル付けの追跡が、
    前記超音波体積の追跡された生成からの前記解剖学的構造のセグメント化に対して前記超音波体積モデルをマッピングする、
    ことを含む、請求項9に記載の方法。
  12. 前記超音波体積モデルが、前記超音波体積内の前記解剖学的構造のセグメント化の幾何学的再分割モデルである、請求項9に記載の方法。
  13. 前記方法が、
    前記超音波プローブが前記解剖学的構造の前記手続的に定義されたゾーンの少なくとも1つの視覚化をガイドするのに応答して超音波画像を生成するステップ、
    を有し、
    前記超音波画像が、前記ゾーンでラベル付けされた超音波体積から得られた前記手続的に定義されたゾーンの前記少なくとも1つを視覚化する、
    請求項9に記載の方法。
  14. 前記超音波画像の生成が、前記患者空間内で追跡され、
    前記手続的に定義されたゾーンの前記少なくとも1つが、前記超音波画像及び前記超音波体積の追跡交差の関数として前記超音波画像上でゾーンラベル付けされる、
    請求項13に記載の方法。
  15. 少なくとも2つの手続的に定義されたゾーンが、前記超音波画像内で差別化される、請求項14に記載の方法。
JP2016552507A 2014-02-28 2015-02-16 超音波ガイド処置に対するゾーン視覚化 Active JP6623166B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201461945897P 2014-02-28 2014-02-28
US61/945,897 2014-02-28
PCT/IB2015/051135 WO2015128772A1 (en) 2014-02-28 2015-02-16 Zone visualization for ultrasound-guided procedures

Publications (2)

Publication Number Publication Date
JP2017506537A true JP2017506537A (ja) 2017-03-09
JP6623166B2 JP6623166B2 (ja) 2019-12-18

Family

ID=52706213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016552507A Active JP6623166B2 (ja) 2014-02-28 2015-02-16 超音波ガイド処置に対するゾーン視覚化

Country Status (5)

Country Link
US (1) US20160367216A1 (ja)
EP (1) EP3110335B1 (ja)
JP (1) JP6623166B2 (ja)
CN (1) CN106068098B (ja)
WO (1) WO2015128772A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3554383B1 (en) * 2016-12-16 2020-04-22 Koninklijke Philips N.V. System for providing images for guiding surgery
CN111093548B (zh) * 2017-03-20 2024-04-16 精密成像有限公司 用于可视地辅助超声系统的操作者的方法和系统
EP3730040A4 (en) 2017-12-20 2021-10-06 Medi Whale Inc. METHOD AND APPARATUS FOR AID IN THE DIAGNOSIS OF CARDIOVASCULAR DISEASE
KR102212499B1 (ko) * 2018-01-03 2021-02-04 주식회사 메디웨일 Ivus 영상 분석방법
EP3840655B1 (en) * 2018-08-22 2024-10-09 Koninklijke Philips N.V. Constraining sensor tracking estimates in interventional acoustic imaging

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014501156A (ja) * 2010-12-31 2014-01-20 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 心内エコー・カテーテル画像における心臓内の機器および構造の自動識別

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9113816B2 (en) * 2008-11-11 2015-08-25 Eigen, Inc. System and method for prostate biopsy
EP4140414A1 (en) * 2012-03-07 2023-03-01 Ziteo, Inc. Methods and systems for tracking and guiding sensors and instruments
RU2635481C2 (ru) * 2012-04-12 2017-11-13 Профаунд Медикал Инк. Сфокусированный ультразвук высокой интенсивности для нагрева целевой зоны, большей, чем электронная зона фокусировки
US9375195B2 (en) * 2012-05-31 2016-06-28 Siemens Medical Solutions Usa, Inc. System and method for real-time ultrasound guided prostate needle biopsy based on biomechanical model of the prostate from magnetic resonance imaging data
EP2807978A1 (en) * 2013-05-28 2014-12-03 Universität Bern Method and system for 3D acquisition of ultrasound images

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014501156A (ja) * 2010-12-31 2014-01-20 セント・ジュード・メディカル・エイトリアル・フィブリレーション・ディヴィジョン・インコーポレーテッド 心内エコー・カテーテル画像における心臓内の機器および構造の自動識別

Also Published As

Publication number Publication date
EP3110335B1 (en) 2022-09-07
CN106068098A (zh) 2016-11-02
JP6623166B2 (ja) 2019-12-18
US20160367216A1 (en) 2016-12-22
EP3110335A1 (en) 2017-01-04
WO2015128772A1 (en) 2015-09-03
CN106068098B (zh) 2020-01-07

Similar Documents

Publication Publication Date Title
EP3003161B1 (en) Method for 3d acquisition of ultrasound images
CN106456125B (zh) 用于将医学图像中的特征链接到解剖结构模型的系统以及其操作方法
EP2680778B1 (en) System and method for automated initialization and registration of navigation system
JP5627677B2 (ja) 画像ガイド下前立腺癌針生検のためのシステムおよび方法
JP5543444B2 (ja) 生検実施のための方法及びシステム
EP2951779B1 (en) Three-dimensional image segmentation based on a two-dimensional image information
JP6623166B2 (ja) 超音波ガイド処置に対するゾーン視覚化
JP2018514352A (ja) 後期マーカー配置による融合イメージベース誘導のためのシステムおよび方法
US20130211230A1 (en) System and method for using medical image fusion
CN101681504A (zh) 用于将实时超声图像与预先获取的医学图像进行融合的系统和方法
JP2007296362A (ja) 機能強化型超音波画像表示装置
US20160030008A1 (en) System and method for registering ultrasound information to an x-ray image
CN109313698A (zh) 同步的表面和内部肿瘤检测
WO2014031531A1 (en) System and method for image guided medical procedures
KR20140127635A (ko) 영상 정합 방법 및 장치
US20230181148A1 (en) Vascular system visualization
JP2018501005A (ja) 解剖学的オブジェクトをセグメント化する超音波画像装置及び方法
CN115137389A (zh) 用于超声成像的解剖学对准的多平面重建视图的系统和方法
JP2012071138A (ja) 対象体のスライス映像表示超音波診断装置およびその方法
JP2022517807A (ja) 医療用ナビゲーションのためのシステムおよび方法
US12112437B2 (en) Positioning medical views in augmented reality
Zhao et al. Guidance system development for radial-probe endobronchial ultrasound bronchoscopy
Juszczyk et al. Time Regarded Method of 3D Ultrasound Reconstruction
Simpfendörfer et al. Use of Surgical Navigation During Urologic Surgery
Chen et al. 3 Freehand 3D Ultrasound

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180830

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6623166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250