JP2019130393A - ユーザが規定可能な関心領域を含む画像ガイダンスシステム - Google Patents

ユーザが規定可能な関心領域を含む画像ガイダンスシステム Download PDF

Info

Publication number
JP2019130393A
JP2019130393A JP2019085249A JP2019085249A JP2019130393A JP 2019130393 A JP2019130393 A JP 2019130393A JP 2019085249 A JP2019085249 A JP 2019085249A JP 2019085249 A JP2019085249 A JP 2019085249A JP 2019130393 A JP2019130393 A JP 2019130393A
Authority
JP
Japan
Prior art keywords
image
interest
imaging system
region
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019085249A
Other languages
English (en)
Other versions
JP6938559B2 (ja
Inventor
エム ダラル,サンディープ
M Dalal Sandeep
エム ダラル,サンディープ
パルタサラティー,ヴィジャイ
Parthasarathy Vijay
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019130393A publication Critical patent/JP2019130393A/ja
Application granted granted Critical
Publication of JP6938559B2 publication Critical patent/JP6938559B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

【課題】 空間的な追跡及び感知データの統合のためのシステムを提供すること。【解決手段】 画像ガイダンスのためのシステム及び方法が、画像を生成するように構成された撮像システム(124)を含み、この撮像システムは、ユーザが画像内の関心領域を選択するユーザ選択を可能にするディスプレイ(126)を含む。1つ又は複数の対象物(134,138)は、画像内に可視化される。計算エンジン(116)は、撮像システム、関心領域、及び1つ又は複数の対象物の座標系を組み合わせて、測定及び/又は位置情報を提供するように構成される。双方向通信チャンネル(122)は、計算エンジンと撮像システムとを結合して、画像及び関心領域の計算エンジンへの送信、及び測定及び/又は位置情報の撮像システムへの送信を可能にするように構成される。【選択図】 図1

Description

本開示は、医療機器に関し、より具体的には、超音波システムにおけるリアルタイム介入情報の双方向データ転送及び視覚化に関する。
超音波ガイドによる画像介入によって、臨床医が、患者の解剖学的構造及び組織内に挿入された介入装置をリアルタイムで確認することができる。3次元超音波を用いた画像ガイドによる介入処置は、心臓病学、腫瘍学、放射線医学等における介入の範囲に及ぶことができる。これらの介入処置では、2次元又は3次元の超音波画像を超音波システムの画面上で視覚化して、介入装置を患者の解剖学的構造内の標的位置に正確に配置し、及びカテーテル、ガイドワイヤ等の装置に埋め込まれたセンサを使用して内部処置(intra-procedural)のリアルタイム測定を行う際に臨床医を案内する。これらの画像を、超音波システムによって捕捉し、超音波システムの画面上に表示させることができるが、測定値は、通常、機器メーカーが提供する別のコンソール上に表示される。
本発明の原理によれば、画像ガイダンスシステムは、画像を生成するように構成された撮像システムを含み、この撮像システムは、ユーザが画像内の関心領域を選択するユーザ選択を可能にするディスプレイを含む。1つ又は複数の対象物が、画像内で可視化される。計算エンジンが、撮像システム、関心領域、及び1つ又は複数の対象物の座標系を組み合わせて、測定及び/又は位置情報を提供するように構成される。双方向通信チャネルが、撮像システムと計算エンジンとを結合して、画像及び関心領域の計算エンジンへの送信、及び測定及び/又は位置情報の撮像システムへの送信を可能にするように構成される。
ワークステーションは、プロセッサと、このプロセッサに結合されたメモリとを含む。撮像システムが、プロセッサに結合され、且つ画像を生成するように構成され、この撮像システムは、ユーザが画像内の関心領域を選択するユーザ選択を可能にするディスプレイを含む。メモリは、画像内で可視化される撮像システム、関心領域、及び1つ又は複数の対象物の座標系を組み合わせて、測定及び/又は位置情報を提供するように構成される計算エンジンを含む。撮像システム及び計算エンジンは、双方向通信チャネルによって結合され、画像及び関心領域の計算エンジンへの送信、及び測定及び/又は位置情報の撮像システムへの送信を可能にするように構成される。
画像ガイダンスのための方法は、撮像システムを使用して対象物の画像を生成するステップを含む。関心領域が、撮像システムのディスプレイを使用して画像内で選択される。画像内で可視化される撮像システム、関心領域、及び1つ又は複数の対象物の座標系を組み合わせて、測定及び/又は位置情報を提供する。撮像システムと計算エンジンとを結合する双方向通信チャンネルを使用して、画像及び関心領域を計算エンジンに送信し、測定及び/又は位置情報を撮像システムに送信する。
本開示のこれら及び他の目的、特徴及び利点は、添付図面に関連して読むべき、その例示的な実施形態の以下の詳細な説明から明らかになるであろう。
例示的な一実施形態による、双方向通信チャネルを用いて撮像システムを計算エンジンに結合する画像ガイダンスシステムを示すブロック/フロー図である。 例示的な一実施形態による、ユーザによって選択された重要な構造を示す撮像システムのディスプレイを示す図である。 例示的な一実施形態による、多平面形式で超音波画像を示す図である。 例示的な一実施形態による、リアルタイムのセンサデータを示す撮像システムのディスプレイを示す図である。 例示的な一実施形態による、関心領域の周りに構築された空間的な境界ボックスを示す図である。 例示的な一実施形態による、画像ガイダンスのための方法を示すブロック/フロー図である。
本開示は、以下の図面を参照しながら、好ましい実施形態の以下の説明で詳細に提示する。
本発明の原理によれば、画像ガイダンス治療介入のためのシステム、ワークステーション、及び方法が提供される。超音波システムを用いることによって、針、カテーテル、ガイドワイヤ等の医療装置を使用する画像ガイダンス介入処置の文脈で3次元超音波画像ストリーミングを生成することができる。介入処置は、例えば温度、接触力等の組織の属性を測定する1つ又は複数のセンサを用いることもできる。計算エンジンが、画像の画像座標系と、追跡される医療装置及び追跡されるセンサの追跡座標系とをグローバル(global)座標系に位置合わせ(register)する。計算エンジンは、1つ又は複数の2次元(2D)平面を構築することができる。各平面は、追跡される医療装置、センサ、関心領域(例えば、重要な構造)等のうちの少なくとも2つの交差部を含む。各交差部について、複数の平面を生成することができる。
双方向通信チャネルを介して超音波システムを計算エンジンに結合することができる。双方向通信チャネルによって、画像、ユーザが選択した点及び関心領域の超音波システムから計算エンジンへの通信が可能になる。双方向通信チャネルによって、計算エンジンから超音波システムへの2D平面の通信だけでなく、センサデータの通信も可能になる。超音波システムのディスプレイは、撮像データを、計算エンジンにより通信されたデータによって指定されるような2次元平面に視覚化することができる。センサデータを、超音波システムのディスプレイ上に表示してもよい。
有利には、双方向通信チャネルによって、介入に関連するデータを超音波システムに返信するのが可能になる。また、双方向通信チャンネルによって、例えば、1つ又は複数の医療装置のリアルタイム位置、医療装置のリアルタイム位置と1つ又は複数のセンサとの間の距離、介入装置のリアルタイム位置とユーザ指定の関心領域(例えば、撮像データにおける重要な構造)との間の距離、及びセンサからのリアルタイム測定データ等の他の情報リソースを超音波システムの画面に再表示するのが可能になる。
なお、本発明について、医療器具の観点で説明することを理解すべきである。しかしながら、本発明の教示は、非常に広範に及び、光ファイバ機器に適用可能である。いくつかの実施形態では、本発明の原理は、複雑な生物学的システム又は機械的システムを追跡又は解析する際に用いられる。特に、本発明の原理は、生物学的システムのイメージング処置、例えば肺、肝臓、腎臓、腹部、胃腸管、排泄器官、血管等の身体の全ての領域での処置に適用可能である。図面に示される要素は、ハードウェア及びソフトウェアの様々な組合せで実現され、単一の要素で又は複数の要素で組み合わせされる機能を提供することができる。
図面に示される様々な要素の機能は、専用ハードウェアだけでなく、適切なソフトウェアに関連してソフトウェアを実行可能なハードウェアの使用によって提供することができる。プロセッサによって提供される場合に、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、又は複数の個別プロセッサによって提供することができ、その機能の一部を共有することができる。さらに、用語「プロセッサ」又は「コントローラ」の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に指すと解釈すべきではなく、限定するものではないが、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを記憶するための読み出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、不揮発性記憶装置等を黙示的に含むことができる。
さらに、本発明の原理、態様、及び実施形態、並びにその特定の実施例を引用する本明細書の全ての文は、その構造的な等価物及び機能的な等価物の両方を包含するように意図している。さらに、そのような等価物には、現在既知の等価物だけでなく、将来的に開発される等価物(すなわち、構造に拘わらず、同じ機能を実行するように開発されたあらゆる要素)の両方を含まれることを意図している。従って、例えば、本明細書に提示されるブロック図は、本発明の原理を具現化する例示的なシステム構成要素及び/又は回路の概念図を表すことは当業者には理解されよう。同様に、フローチャート、フロー図等が、コンピュータ可読記憶媒体に実質的に表され、それによってコンピュータ又はプロセッサによって実行される(そのようなコンピュータ又はプロセッサが明示的に示されているか否かに拘わらず)様々なプロセスを表すことが理解されるであろう。
また、本発明の実施形態は、コンピュータ又は任意の命令実行システムによって又はこれらに関連して使用されるプログラムコードを提供するようなコンピュータ使用可能な記憶媒体又はコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラム製品の形態をとることができる。この説明の目的のために、コンピュータ使用可能な記憶媒体又はコンピュータ可読記憶媒体は、命令実行システム、装置、又はデバイスによって又はこれらに関連して使用されるプログラムを含む、格納する、通信する、伝搬する、又は搬送する任意の装置とすることができる。媒体は、電子的、磁気的、光学的、電磁的、赤外線、又は半導体システム(又は装置又はデバイス)、或いは伝搬媒体とすることができる。コンピュータ可読媒体の例として、半導体又は固体状態メモリ、磁気テープ、取り外し可能なコンピュータ・ディスケット、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、リジッド磁気ディスク、及び光ディスクが挙げられる。光ディスクの現在の例として、コンパクトディスク(読み取り専用メモリ(CD-ROM))、コンパクトディスク(読み取り/書き込み(CD-R/W)、ブルーレイ(登録商標)及びDVDが挙げられる。
ここで同様の数字が同一又は同様の要素を表す図面を参照する。最初に図1を参照すると、一実施形態による空間的な追跡及び感知データの統合のためのシステム100が、例示的に示されている。システム100は、処置を監視及び/又は管理するワークステーション又はコンソール102を含むことができる。ワークステーション102は、好ましくは、1つ又は複数のプロセッサ104と、プログラム、アプリケーション、及び他のデータを格納するためのメモリ110とを含む。
ワークステーション102は、例えば処置に関する画像やデータを表示するためのディスプレイ106を含む。ディスプレイ106によって、ユーザがワークステーション102及びその構成要素及び機能と相互作用すること、又はシステム100内の他の要素と相互作用することも可能になる。このディスプレイは、キーボード、マウス、ジョイスティック、触覚デバイス又は他の周辺機器を含むことができ、又はユーザがワークステーション102からのフィードバックを利用し且つこのワークステーションとの相互作用を可能にするように制御するインターフェイス108によってさらに促進される。システム100の構成要素及び機能は、1つ又は複数のシステム又はワークステーションに統合してもよく、又はより大きなシステム又はワークステーションの一部としてもよいことを理解すべきである。
撮像システム124は、好ましくは、追跡プローブ又はトランスデューサ130を有する超音波(US)システムを含み、2次元(2D)又は3次元(3D)ボリューム画像114のライブストリームを提供する。撮像システム124は、超音波システムに限定されるものではなく、むしろ任意の撮像システム、具体的には、例えば蛍光透視法等のリアルタイム・イメージングに適した撮像システムを含むことができることを理解すべきである。プローブ130は、好ましくは、例えば電磁(EM)追跡装置、光学追跡装置等の追跡装置(図示せず)を使用して追跡される。追跡装置によって、撮像追跡システムにおけるプローブ130のリアルタイムの空間的追跡が可能になる。撮像追跡システムによって、画像座標系における医療装置134の位置及び姿勢(すなわち、方向)のリアルタイムの追跡も可能になる。プローブ130の空間的な追跡情報は、プローブ・トラッカー118として格納される。
撮像システム124は、それ自体のディスプレイ128と、ユーザとの相互作用のためのインターフェイス128とを含むことができる。例えば、インターフェイス128によって、ユーザが画像上の関心領域又は関心点をユーザ入力112として選択することが可能になる。関心点は、画像114内で視覚化されるような、対象物132内のセンサ138、重要な構造の位置を含むことができる。ユーザが選択したユーザ選択点が、撮像追跡システムで選択され、ワークステーション102に送信される。例示的な一実施形態では、ディスプレイ128は、多平面フォーマット、すなわち複数の平面(典型的には2つであるが、より多くの平面を含んでもよい)の3D画像を示すことができる。3D画像は、適宜ユーザが選択した平面に沿ってスライスしてもよい。有利には、撮像システム124は、双方向通信チャネル122を介してワークステーション102に結合され、その双方向通信チャネルは、3D画像及びメタデータ(例えば、属性に関する画像、ユーザが選択した点の座標等)をワークステーション102に画像114として搬送することが可能であり、且つワークステーション102からリアルタイムでデータを受信することができる。
重要な(critical)構造は、医療装置132の経路の交差部によって、又は医療装置132を所望の位置に配置して用いる所望の治療の実行によってのいずれかで悪影響を受け得る対象物132(例えば、組織)中の部位又は領域である。重要な構造は、例えば、ユーザにとって位置(poisoning)情報を決定するのに有用な腫瘍標的部位、血管分岐点、又は他の関心部位等の目印を含むことができる。これらの位置は、画像座標系において(インターフェイス128を使用して)ユーザによって選択され、且つグローバル座標系に変換するために計算エンジン116に通信される。いくつかの実施形態では、計算エンジン116は、リアルタイムで重要な構造に近接した追跡医療装置124の位置を表す2次元平面を構築する。各平面は、例えば、装置134のチップと、ユーザによって特定される重要な構造との交差部を含む。2D平面は、双方向通信ケーブル122を介して撮像システム124に送信することができる。これによって、ユーザが、血管分岐点等の標的又基準点に近接する追跡装置の軌跡、又は装置134を重要な構造から離した位置に維持する程度の適合性の目視判定を行うことができる。
図1への参照に続いて図2をしばらくの間参照すると、例示的な一実施形態による撮像システム124の例示的なディスプレイ126が、示されている。ディスプレイ126は、チップ部分202を有する医療装置134を示している。ディスプレイ126は、介入処置の画像ガイダンスのために使用することができる。重要な構造204は、ユーザによって画像座標系において選択される。その座標情報は、計算エンジン116に送信され、計算エンジンは、その座標情報をグローバル座標系に変換して、選択された重要な構造204とチップ部分202との交差部を示す少なくとも1つの2D平面を構築する。2D平面は、他の装置、センサ、関心領域の間の交差部も示すことができる。
ユーザが重要な構造(例えば、標的、基準点等)又はセンサ138を選択した場合に、撮像システム124のディスプレイ126は、医療装置134(例えば、チップ)と選択された重要な構造との間のリアルタイム距離を提供することができる。この距離は、重要な構造から医療装置134のリアルタイムのチップ位置までの距離、又は重要な構造から医療装置134の最も近い点までの距離のいずれであってもよい。例えば、これによって、ある程度の最小限の距離を維持するのを確保することにより、ユーザが医療装置134を重要な構造から離れた位置で安全に操作することができる。
いくつかの実施形態では、医療装置134が重要な構造に対して所定の閾値距離内に入った場合に、ユーザに通知することができる。他の実施形態では、センサデータの解析(例えば、温度が、ユーザが規定したしきい値を超えた、接触力が、小さ過ぎる又は大き過ぎる、圧力/フロー測定値が、正常/異常である等)に基づいて、ユーザに通知することができる。通知は、例えば、警報音、色の点灯、点滅光、ディスプレイ上のポップアップメッセージ、触覚応答等を含むことができる。
図1を再び参照すると、計算エンジン116は、ユーザ入力112を用いてプローブ・トラッカー118及び測定トラッカー120からのデータと、撮像システム124からの画像114とを統合する。撮像システム124は、双方向通信チャネル122によって、ワークステーション102に結合される。双方向通信チャネル122によって、外部装置が介入に関連するデータを撮像システム124に再び送受信するのが可能になる。また、双方向チャネル122によって、例えば介入装置からのリアルタイム位置及び測定データ等の他の情報リソースを撮像システム124のディスプレイ126に再表示するのが可能になる。
撮像システム124は、画像114内で可視化される1つ又は複数の対象物を含む介入処置のための画像ガイダンスを提供することができる。1つ又は複数の対象物は、装置又は器具134、1つ又は複数のセンサ138等を含んでもよい。装置134は、好ましくは、例えば針、カテーテル、ガイドワイヤ、プローブ、内視鏡、ロボット、電極、フィルタ装置、バルーン装置、又は他の医療用部品等の医療装置を含む。医療装置134は、必要に応じて、光ファイバ、電気的接続、他の器具等を含み得るケーブルを介してワークステーション102に結合される。
医療装置134は、この医療装置134に結合された追跡装置136を使用して追跡することができる。追跡装置136は、例えば、EM追跡装置、光学追跡装置等を含んでもよい。追跡装置136は、例えば対象物132の組織内に配置された場合に、空間追跡システムにおける追跡座標系に基づいて医療装置134のリアルタイムの空間的追跡を可能にする。医療装置134の空間的な追跡情報は、測定トラッカー120に格納される。
いくつかの実施形態では、複数の医療装置134を対象物132内に挿入してもよい。例えば、無線周波数、冷凍アブレーション、又はマイクロ波アブレーション・プローブが、関心対象の組織中に同時に存在してもよい。1つ又は複数のそのような装置からの信号によって、リアルタイムの空間的な追跡データを測定トラッカー120に提供することができる。
1つ又は複数のセンサ138を、対象物132内に配置してもよい。センサ138は、追跡医療装置134に直接的に結合する、又は対象物132の標的領域(例えば、処置される組織)の近傍に独立して配置することができる。センサ138は、治療モニタリングのために使用される対象物132の属性(例えば、対象物132の組織)を測定することができる。センサ138は、例えば、温度センサ、接触力センサ、流量センサ等を含んでもよい。センサ138は、有線又は無線インターフェイスを介してワークステーション102に測定データをリアルタイムで送信可能であってもよい。センサ138を追跡医療装置134に結合した場合に、医療装置134の測定及び空間的な追跡情報に関連付けられたセンサデータを、ワークステーション102に同時に送信することができる。センサ138からのセンサデータを、測定トラッカー120に格納してもよい。
センサ138からのセンサデータを計算エンジン116によって前処理して、ユーザにとって有意な出力を生成することができる。例えば、温度センサデータは、直接的に有意な出力となり得るが、光学スペクトルセンサは、波長毎に応答をマッピングする。しかしながら、ユーザにとって有意な出力は、スペクトルの実際の生データではなく、組織分類の決定を行う(例えば、組織を、健康、病気、治療済み、又は未治療として分類する)ためのこの応答の信号処理である。前処理の特性は、センサの種類に依存し得る。有意な出力は、撮像システム124に返送される出力である。
追跡医療装置134の近傍に複数のセンサ138がある場合に、センサ138は、ユーザによって画像114内で識別可能とする必要があり、各センサ138の同一性(identity)は、空間的位置において一意に決定する必要がある。3D画像114及び対応するデータ測定ストリームで識別されたセンサの関連性は、計算エンジン116にとって既知である。計算エンジン116は、センサのデータを、そのセンサを含む2D平面と一致させて提示することを保証する。
センサ138は、追跡しても又は追跡しなくてもよい。非追跡センサ138は、撮像データにおける(画像座標系での)センサ位置を特定するために、(例えば、インターフェイス128を使用して)ユーザによって選択してもよい。追跡センサ138は、このセンサ138に結合された、例えばEM追跡装置、光学追跡装置等を含んでもよい。センサ138の位置は、追跡装置の追跡座標系において追跡され、且つリアルタイムで測定トラッカー120に報告される。このように、ユーザは、画像112においてセンサ138を特定し、且つその座標を計算エンジン116に伝達する必要がない。追跡センサ138は、空間的な追跡データを含むセンサの測定データを測定トラッカー120に同期して通信する。
計算エンジン116は、次の信号を受信する:1)任意であるがプローブ130上の固定点(例えば、プローブ130の表面の中心)に関する座標系(すなわち、画像座標系)を有する、撮像システム124からの3D画像;2)画像座標系においてユーザが選択した(ユーザが特定した)センサ138の空間位置;3)追跡システム136(すなわち、追跡座標系)の座標フレーム内の、医療装置134からのリアルタイムの空間的追跡情報;4)センサ138からのリアルタイム測定データ;5)必要に応じて、標的領域内の又はその周囲の他の追跡装置又はセンサ138からのリアルタイムの空間的追跡情報であって、ここで3D画像114及び医療装置134は、追跡座標系に位置している。
計算エンジン116は、空間的な位置合せ(registration)技術を使用して、単一のグローバル座標系に画像114及びリアルタイムの空間的追跡データを結び付ける。空間的な位置合せによって、(例えば、撮像データ、選択された重要な構造、選択されたセンサ等からの)画像座標系と、(例えば、追跡医療装置134、追跡センサ138等からの)追跡座標系とを、グローバル座標系に結び付ける。例えば、キャリブレーション変換(典型的には4×4行列)を使用して、画像座標系の画像114を追跡座標系にマッピングしてもよく、又はその逆を行ってもよい。別の例では、画像座標系のセンサ138の位置を、追跡座標系にマッピングしてもよい。位置合せの他のアプローチも企図される。
一旦全ての画像及び装置/センサの位置がグローバル座標系で規定されると、計算エンジン116は、3D画像から2D平面における装置134及びセンサ138の姿勢(すなわち、位置及び向き)を規定する。計算エンジン116は、装置134のチップ位置、その向き、及びセンサ138の1つ又は複数の位置を使用して、その姿勢を規定することができる。例えば、2D平面は、3D画像においてそのチップに沿って装置134の軸線全体を示すように構築することができる。しかしながら、この平面内で規定される1つの自由度が依然として存在しており、この軸線周りの完全な回転を可能にする。この平面は、1つのセンサ138の位置が面内に存在するのを可能するように、装置134の軸線回りに所定の回転角を含むようにロックすることができる。これによって、装置134のチップ及びシャフトと1つのセンサ138とが1つの2D平面内に存在することが保証される。この平面の姿勢は、装置134及びセンサ138のリアルタイムの空間的追跡位置を用いて更新することができる。計算エンジン116は、追加の装置、センサ、関心領域等の間の同一平面の交差部を示す追加の平面を構築することができる。いくつかの実施形態では、計算エンジン116は、撮像データ自体ではこれらの器具及びセンサを明確に可視化することができない場合があるので、ライブの撮像データを用いて又はこのライブの撮像データに重ねた状態で、追跡装置134及び/又はセンサ138をディスプレイ126上に示される融合した仮想対象物として表す。
計算エンジン116は、双方向通信チャネル122を使用して、2次元平面の3次元姿勢を、画像座標系を使用する撮像システム124に通信する。双方向通信チャネル122は、有線、無線、又はより大きなケーブルの一部であってもよい。姿勢が追跡座標系で計算された場合に、適切な変換をこの姿勢に適用することができる。撮像システム124は、2次元平面の姿勢を受信して、2次元平面と交差するように3D画像から対応する2D画像を計算する。2D平面の姿勢に対応する1つ又は複数の2D画像が、撮像システム124のディスプレイ126上に表示される。
図1への参照に続いて図3をしばらくの間参照すると、例示的な一実施形態による超音波画像300が、多平面の形式で示されている。2つの2D超音波画像が、ディスプレイ126等の超音波ディスプレイ上に同時に表示される。超音波画像は、第1の2D平面302と、第2の2D平面304とを含む。チップ部分306を有する医療装置312を、対象物(例えば、患者)内に位置付けすることができる。センサ308及び重要な構造310を、標的領域の近傍に配置する。センサ308及び重要な構造310は、2つの平面302,304には、ユーザが選択したセンサ308又は重要な構造310のいずれかを含む装置304のチップ部分306及びシャフトの選択が含まれるように、ユーザによって選択してもよい。
図1を再び参照すると、双方向通信チャネル122を使用して、センサ138からのリアルタイムの(前処理された)測定データを撮像システム124に送信する。撮像システム124は、対応するリアルタイムのセンサの測定データを、グラフィカル・ユーザインターフェイスで示すのに適切な測定タイプで表示する。これは、ディスプレイ126及び/又はインターフェイス128を含んでもよい。測定データは、ユーザによるセンサの選択に応じて表示される、又はどのセンサが関連するかに依存して自動的に表示される。関連するセンサは、ユーザが特定した重要な構造又は関心のある他の構造のどれが存在しているかに基づいて、視覚化する際に何時でも決定することができる。
図1への参照に続いて図4をしばらくの間参照すると、例示的な一実施形態による撮像システム124の例示的なディスプレイ126が、示されている。ディスプレイ126は、チップ部分402を有する医療装置134を示す。センサ138は、少なくとも1つの2D平面が、チップ部分402を含むセンサ138を含むようにユーザによって選択される。センサのデータは、リアルタイムで通信され、ディスプレイ126上でリアルタイムのセンサ値404として視覚化することができる。
図1を再び参照すると、いくつかの実施形態では、空間的な境界ボックスを構築することができる。空間的な境界ボックスは、ユーザに対する関心領域を含む3Dボリュームである。典型的には、この関心領域は、境界ボックス内に装置134のチップ、このチップ近くの装置134のシャフト部分、及び1つ又は複数のセンサ138の全てを含む。空間的な境界ボックスの座標は、双方向通信チャネル122を介して撮像システム124に送信することができる。
撮像システム124は、空間的な境界ボックスの座標を受信し、且つ3D超音波映像の3Dサブボリュームを決定する。これによって、超音波システムが、サブボリューム内でサブボリューム・ビュー及び2D平面のみを最適にレンダリングすることが可能になる。撮像システム124のディスプレイ126の例えば、利得、焦点、深度、時間利得補償(TGC)、フレームレート、視覚化エンハンスメント等の信号処理属性は、サブボリュームの位置に応じて動的に最適化することができる。関心対象の3D領域が撮像システムに既知である場合に、3D取得の高フレームレートが可能となる。
図1への参照に続いて図5をしばらくの間参照すると、例示的な一実施形態による空間的な境界ボックス500内の関心領域が、示されている。空間的な境界ボックス502は、関心領域の周囲に構築される。関心領域は、医療装置514のチップ部分504、重要な構造508、及びセンサ506の位置を含む。境界ボックスの座標は、双方向通信チャネル122を使用して撮像システムに通信され、撮像システムが境界ボックス内のビューを最適化するのを可能にする。境界ボックス502は、第1の2D平面510と、第2の2D平面512とを含む。センサ506及び重要な構造508は、2つの平面510,512には、ユーザが選択したセンサ506又は重要な構造508のいずれかを含むチップ部分504の選択が含まれるようにユーザによって選択することができる。
ここで図6を参照すると、一実施形態による画像ガイダンス600のための方法を示すブロック/フロー図が、例示的に示されている。ブロック602では、対象物(例えば、患者、ボリューム等)の(例えば、3D)画像が、撮像システムを使用して生成される。撮像システムは、好ましくは、追跡プローブを有する超音波システムを含む。ブロック604では、画像内の関心領域が、撮像システムのディスプレイを使用して選択される。関心領域は、(非追跡)センサ、重要な構造等を含んでもよい。
ブロック606では、画像内で可視化される撮像システム、関心領域、及び1つ又は複数の対象物の座標系を組み合わせて、測定及び/又は位置情報を提供する。1つ又は複数の対象物は、1つ又は複数の装置(例えば、医療器具)、1つ又は複数のセンサ等を含んでもよい。測定及び/又は位置情報は、視覚化情報、センサからのデータ等を含んでもよい。ユーザによって選択されるような撮像データ及びこの撮像データにおいて特定される関心領域(例えば、非追跡センサ、重要な構造)は、画像座標系で追跡される。追跡装置及び追跡センサの空間位置は、追跡座標系で追跡される。ブロック608では、上記組み合わせるステップは、撮像システム、関心領域、及び1つ又は複数の対象物の座標系をグローバル座標系に位置合わせして、測定及び/又は位置情報を提供するステップを含む。
ブロック610では、1つ又は複数の2D平面は、各2D平面が、1つ又は複数の対象物(例えば、装置、センサ等)及び関心領域(例えば、重要な構造、関心のあるポイント等)のうちの少なくとも2つ以上の交差部を示すように構築される。いくつかの実施形態では、空間的な境界ボックスは、2D平面内の標的領域に対して構築される。標的領域は、追跡装置、1つ又は複数のセンサ、関心領域等を含んでもよい。ブロック612では、1つ又は複数の対象物は、撮像システムのディスプレイに仮想対象物として表すことができる。ブロック614では、通知が生成される。この通知は、1つ又は複数の対象物と関心領域との間の距離に基づいて、或いは1つ又は複数のセンサのデータに基づいて、生成することができる。
ブロック616では、双方向通信チャネルを使用して、3D画像及びユーザ選択が、計算エンジンに送信され、且つ測定及び/又は位置情報が、撮像システムに送信される。双方向通信チャンネルは、撮像システム及び計算エンジンを結合して、情報リソースを撮像システム上に表示することを可能にする。
添付の特許請求の範囲を解釈する際には、以下のことを理解すべきである。
a)単語「備える、有する、含む(comprising)」は、所与の請求項に列挙された要素又は動作以外の他の要素又は動作の存在を排除するものではない。
b)ある要素に先行する単語「1つの(a, an)」は、そのような複数の要素の存在を除外するものではない。
c)請求項における任意の参照符号は、その発明の範囲を限定するものではない。
d)いくつかの「手段」は、同じアイテム、或いは構造又は機能を実装したハードウェア又はソフトウェアにより表すことができる。
e)動作の特定の順序は、特に示されない限り、その順序で行う必要がないことを意図している。
(例示することを意図しており、限定的ではない)超音波システムにおけるリアルタイム介入情報の双方向データ転送及び視覚化のための好ましい実施形態について説明してきたが、修正及び変形が、上記の教示を踏まえると当業者によって行うことができることに留意されたい。従って、変更は、本開示の特定の実施形態に行うことができ、その変更は、添付の特許請求の範囲によって概説されるように、本明細書に開示される実施形態の範囲内にあることを理解すべきである。こうして、特許法によって特に要求される詳細について説明してきたが、特許請求の範囲に記載され且つ特許証によって保護を望む発明の範囲が、添付の特許請求の範囲に記載されている。

Claims (16)

  1. 画像ガイダンスシステムのためのワークステーションであって、当該ワークステーションは:
    プロセッサと;
    該プロセッサに結合されたメモリと;
    前記プロセッサに結合されるとともに画像を生成するように構成され撮像システムであって、該撮像システムは、ユーザが前記画像内の関心領域を選択するユーザ選択を可能にするディスプレイを含み、前記画像及び前記関心領域を選択するユーザ選択は、画像座標系に関連し、前記画像は、該画像内に可視化される1つ又は複数の対象物を含み、該1つ又は複数の対象物の少なくとも1つは、追跡座標系に関連して空間的に追跡される装置である、撮像システムと;を含み、
    前記メモリは、前記画像座標系及び前記追跡座標系をグローバル座標系に位置合わせすることにより、前記画像、前記関心領域、及びリアルタイムの空間追跡データを結び付けて、測定及び/又は位置情報を提供するように構成された計算エンジンを含み、
    前記撮像システム及び前記計算エンジンは、双方向通信チャネルによって結合され、前記画像及び前記関心領域の前記計算エンジンへの送信、及び前記測定及び/又は位置情報の前記撮像システムへの送信を可能にするように構成される、
    ワークステーション。
  2. 前記計算エンジンは、1つ又は複数の2次元平面を構築するようにさらに構成され、各平面は、前記1つ又は複数の対象物及び前記関心領域から構成される2つ以上の交差部を示す、
    請求項1に記載のワークステーション。
  3. 前記1つ又は複数の対象物は、センサを含み、前記計算エンジンは、前記センサからリアルタイムの測定データを受信するようにさらに構成される、
    請求項1に記載のワークステーション。
  4. 前記撮像システムは、前記ディスプレイ上で前記1つ又は複数の対象物を仮想対象物として表すようにさらに構成される、
    請求項1に記載のワークステーション。
  5. 前記撮像システムの前記ディスプレイは、前記ユーザが、1つ又は複数の重要な構造、及び1つ又は複数の解剖学的部位のうちの少なくとも1つを含む関心領域を選択するのを可能にするように構成される、
    請求項1に記載のワークステーション。
  6. 前記センサは、追跡されていないセンサであり、前記撮像システムの前記ディスプレイは、前記ユーザが、前記追跡されていないセンサを表す1つ又は複数の位置を含む関心領域を選択するのを可能にするように構成される、
    請求項3に記載のワークステーション。
  7. 前記センサは、追跡されるセンサであり、前記センサの位置は、前記追跡座標系において空間的に追跡される、
    請求項3に記載のワークステーション。
  8. 前記計算エンジンは、前記撮像システムに送信する前に、前記センサのデータを処理するようにさらに構成される、
    請求項3に記載のワークステーション。
  9. 前記計算エンジンは、標的領域について空間的な境界ボックスを構築するようにさらに構成される、
    請求項1に記載のワークステーション。
  10. 前記ディスプレイは、前記ユーザ選択に基づいて選択的に、及び/又は、空間的境界ボックス及び/又は関心領域の存在に基づいて自動的に、前記センサのデータを視覚化するようにさらに構成される、
    請求項3に記載のワークステーション。
  11. 前記計算エンジンは、前記1つ又は複数の対象物と前記関心領域との間の距離、及びセンサのデータのうちの少なくとも一方に基づいて通知を生成するようにさらに構成される、
    請求項1に記載のワークステーション。
  12. 画像ガイダンスシステムであって、当該システムは:
    請求項1乃至11のいずれか一項に記載のワークステーションと;
    該ワークステーションの前記撮像システムによって生成される前記画像内に可視化される1つ又は複数の対象物と;
    前記撮像システム及び前記ワークステーションの前記計算エンジンを結合するように構成された双方向通信チャンネルと;を有する、
    システム。
  13. 前記撮像システムは、超音波システムを含み、前記1つ又は複数の対象物は、差込器、針、カテーテル、ガイドワイヤのうちの少なくとも1つを含む、
    請求項12に記載のシステム。
  14. 画像ガイダンスのための方法であって、当該方法は:
    撮像システムを使用して被検体の画像を生成するステップであって、該画像は、前記画像内に可視化される1つ又は複数の対象物を含み、該1つ又は複数の対象物の少なくとも1つは、追跡座標系に関連して空間的に追跡される装置である、生成するステップと;
    前記撮像システムのディスプレイを使用して前記画像内の関心領域を選択するステップであって、前記画像及び前記関心領域を選択するユーザ選択は、画像座標系に関連する、選択するステップと;
    前記画像座標系及び前記追跡座標系をグローバル座標系に位置合わせすることにより、前記画像、前記関心領域、及びリアルタイムの空間追跡データを結び付けて、測定及び/又は位置情報を提供するステップと;
    前記撮像システムと計算エンジンを結合する双方向通信チャンネルを使用して、前記画像及び前記関心領域を前記計算エンジンに送信し、且つ前記測定及び/又は位置情報を前記撮像システムに送信するステップと;を含む、
    方法。
  15. 前記1つ又は複数の対象物は、センサを含み、当該方法は、1つの前記選択に基づいて選択的に、及び/又は、空間的な境界ボックス及び/又は前記関心領域の存在に基づいて自動的に、センサのデータを視覚化するステップをさらに含む、
    請求項14に記載の方法。
  16. 前記1つ又は複数の対象物と前記関心領域との間の距離、及びセンサのデータのうちの少なくとも一方に基づいて通知を生成するステップをさらに含む、
    請求項14に記載の方法。
JP2019085249A 2013-09-30 2019-04-26 ユーザが規定可能な関心領域を含む画像ガイダンスシステム Active JP6938559B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361884197P 2013-09-30 2013-09-30
US61/884,197 2013-09-30
JP2016545077A JP2016531713A (ja) 2013-09-30 2014-09-26 ユーザが規定可能な関心領域を含む画像ガイダンスシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016545077A Division JP2016531713A (ja) 2013-09-30 2014-09-26 ユーザが規定可能な関心領域を含む画像ガイダンスシステム

Publications (2)

Publication Number Publication Date
JP2019130393A true JP2019130393A (ja) 2019-08-08
JP6938559B2 JP6938559B2 (ja) 2021-09-22

Family

ID=51845466

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016545077A Pending JP2016531713A (ja) 2013-09-30 2014-09-26 ユーザが規定可能な関心領域を含む画像ガイダンスシステム
JP2019085249A Active JP6938559B2 (ja) 2013-09-30 2019-04-26 ユーザが規定可能な関心領域を含む画像ガイダンスシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016545077A Pending JP2016531713A (ja) 2013-09-30 2014-09-26 ユーザが規定可能な関心領域を含む画像ガイダンスシステム

Country Status (5)

Country Link
US (1) US20160228095A1 (ja)
EP (1) EP3054885B1 (ja)
JP (2) JP2016531713A (ja)
CN (1) CN105592816B (ja)
WO (1) WO2015044901A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10835210B2 (en) * 2015-03-30 2020-11-17 Siemens Medical Solutions Usa, Inc. Three-dimensional volume of interest in ultrasound imaging
US10939963B2 (en) * 2016-09-01 2021-03-09 Covidien Lp Systems and methods for providing proximity awareness to pleural boundaries, vascular structures, and other critical intra-thoracic structures during electromagnetic navigation bronchoscopy
WO2018060499A1 (en) * 2016-09-30 2018-04-05 Koninklijke Philips N.V. Tracking a feature of an interventional device
US11120070B2 (en) * 2018-05-21 2021-09-14 Microsoft Technology Licensing, Llc System and method for attribute-based visual search over a computer communication network
EP3840661B1 (en) * 2018-08-22 2024-02-28 Koninklijke Philips N.V. 3d tracking of interventional medical devices
CN115867201A (zh) 2020-07-10 2023-03-28 朝日英达科株式会社 医疗装置以及图像生成方法
DE102020213035A1 (de) * 2020-10-15 2022-04-21 Siemens Healthcare Gmbh Verfahren zur Ansteuerung eines Röntgengerätes und medizinisches System
WO2023118996A1 (en) * 2021-12-20 2023-06-29 Biosense Webster (Israel) Ltd. Visualizing a medical probe in a four-dimensional ultrasound image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004358264A (ja) * 2004-07-09 2004-12-24 Toshiba Corp 超音波治療装置
JP2006325916A (ja) * 2005-05-26 2006-12-07 Japan Lifeline Co Ltd 温熱・加熱治療装置
JP2007508913A (ja) * 2003-10-21 2007-04-12 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法
JP2009066412A (ja) * 2007-09-13 2009-04-02 Siemens Ag 医用画像撮影装置
JP2009125280A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 超音波診断装置及び穿刺支援用制御プログラム
WO2010073165A1 (en) * 2008-12-23 2010-07-01 Koninklijke Philips Electronics, N.V. Automated three dimensional acoustic imaging for medical procedure guidance
WO2011125549A1 (ja) * 2010-03-31 2011-10-13 公立大学法人大阪府立大学 脂肪組織画像表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7343195B2 (en) * 1999-05-18 2008-03-11 Mediguide Ltd. Method and apparatus for real time quantitative three-dimensional image reconstruction of a moving organ and intra-body navigation
JP3875841B2 (ja) * 2000-03-28 2007-01-31 アロカ株式会社 医療システム
KR20030058423A (ko) * 2001-12-31 2003-07-07 주식회사 메디슨 중재적 초음파를 사용하는 3 차원 초음파 진단 시스템에서검침 도구의 관찰 및 이의 대상체로의 진입을 용이하게하기 위한 방법 및 장치
US8721655B2 (en) * 2002-04-10 2014-05-13 Stereotaxis, Inc. Efficient closed loop feedback navigation
US7758508B1 (en) * 2002-11-15 2010-07-20 Koninklijke Philips Electronics, N.V. Ultrasound-imaging systems and methods for a user-guided three-dimensional volume-scan sequence
JP2006521146A (ja) * 2003-03-27 2006-09-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 広いビューの三次元超音波イメージングにより侵襲的医療装置を案内する方法及び装置
JP4398405B2 (ja) * 2005-05-30 2010-01-13 アロカ株式会社 医療システム
JP4730889B2 (ja) * 2005-07-26 2011-07-20 日立アロカメディカル株式会社 超音波画像形成システム
US8068648B2 (en) * 2006-12-21 2011-11-29 Depuy Products, Inc. Method and system for registering a bone of a patient with a computer assisted orthopaedic surgery system
DE502007006239D1 (de) * 2007-02-15 2011-02-24 Brainlab Ag Verfahren zur Darstellung anatomischer Patientenstrukturen im interessierenden Bereich eines Bilderfassungsgeräts
RU2494676C2 (ru) * 2007-11-16 2013-10-10 Конинклейке Филипс Электроникс, Н.В. Интервенционная навигация с использованием трехмерного ультразвука с контрастным усилением
BRPI0909920B8 (pt) * 2008-06-20 2021-07-06 Koninklijke Philips Electronics Nv sistema de biópsia, mídia de armazenamento que pode ser lida por computador, e método de geração de uma imagem
US20100286519A1 (en) * 2009-05-11 2010-11-11 General Electric Company Ultrasound system and method to automatically identify and treat adipose tissue
EP2440129A4 (en) * 2009-06-08 2015-06-03 Mri Interventions Inc MRI-CONTROLLED SURGICAL SYSTEMS WITH PRESET SCAN SURFACES
US20110082351A1 (en) * 2009-10-07 2011-04-07 Inneroptic Technology, Inc. Representing measurement information during a medical procedure
CN102869306B (zh) * 2010-05-03 2015-07-08 皇家飞利浦电子股份有限公司 用于产生感兴趣对象的成角视图的医学观察系统和方法
EP2699166B1 (en) * 2011-04-21 2019-09-04 Koninklijke Philips N.V. Mpr slice selection for visualization of catheter in three-dimensional ultrasound
US8696582B2 (en) * 2011-05-10 2014-04-15 The University Of British Columbia Apparatus and method for imaging a medical instrument

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007508913A (ja) * 2003-10-21 2007-04-12 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法
US20070276234A1 (en) * 2003-10-21 2007-11-29 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Intraoperative Targeting
JP2004358264A (ja) * 2004-07-09 2004-12-24 Toshiba Corp 超音波治療装置
JP2006325916A (ja) * 2005-05-26 2006-12-07 Japan Lifeline Co Ltd 温熱・加熱治療装置
JP2009066412A (ja) * 2007-09-13 2009-04-02 Siemens Ag 医用画像撮影装置
JP2009125280A (ja) * 2007-11-22 2009-06-11 Toshiba Corp 超音波診断装置及び穿刺支援用制御プログラム
WO2010073165A1 (en) * 2008-12-23 2010-07-01 Koninklijke Philips Electronics, N.V. Automated three dimensional acoustic imaging for medical procedure guidance
JP2012513238A (ja) * 2008-12-23 2012-06-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 医療処置ガイダンスに関する自動的な3次元音響撮像
WO2011125549A1 (ja) * 2010-03-31 2011-10-13 公立大学法人大阪府立大学 脂肪組織画像表示装置

Also Published As

Publication number Publication date
JP6938559B2 (ja) 2021-09-22
WO2015044901A1 (en) 2015-04-02
EP3054885A1 (en) 2016-08-17
JP2016531713A (ja) 2016-10-13
EP3054885B1 (en) 2020-04-29
US20160228095A1 (en) 2016-08-11
CN105592816B (zh) 2019-06-07
CN105592816A (zh) 2016-05-18

Similar Documents

Publication Publication Date Title
JP6938559B2 (ja) ユーザが規定可能な関心領域を含む画像ガイダンスシステム
US11786318B2 (en) Intelligent real-time tool and anatomy visualization in 3D imaging workflows for interventional procedures
US20220192611A1 (en) Medical device approaches
JP6053766B2 (ja) 二次元撮像プローブを用いる三次元針位置特定
US11617623B2 (en) Virtual image with optical shape sensing device perspective
JP6568084B2 (ja) 光学式形状検知を用いてデバイスを撮像するロボット制御
US7945310B2 (en) Surgical instrument path computation and display for endoluminal surgery
JP5830576B1 (ja) 医療システム
US20190021699A1 (en) Automatic probe steering to clinical views using annotations in a fused image guidance system
US20080071142A1 (en) Visual navigation system for endoscopic surgery
US20080071141A1 (en) Method and apparatus for measuring attributes of an anatomical feature during a medical procedure
US10284762B2 (en) System and method for targeting feedback
US9607381B2 (en) Accurate and rapid mapping of points from ultrasound images to tracking systems
JP2023522182A (ja) 血管系の視覚化
EP3703012A1 (en) Map of body cavity
CN114173675A (zh) 超声目标点跟踪
US20230147826A1 (en) Interactive augmented reality system for laparoscopic and video assisted surgeries
US20230190235A1 (en) Visualizing a medical probe in a four-dimensional ultrasound image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200526

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210803

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210901

R150 Certificate of patent or registration of utility model

Ref document number: 6938559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150