JP6714019B2 - 医療手順における動き補償のためのシステム及び方法 - Google Patents

医療手順における動き補償のためのシステム及び方法 Download PDF

Info

Publication number
JP6714019B2
JP6714019B2 JP2017557317A JP2017557317A JP6714019B2 JP 6714019 B2 JP6714019 B2 JP 6714019B2 JP 2017557317 A JP2017557317 A JP 2017557317A JP 2017557317 A JP2017557317 A JP 2017557317A JP 6714019 B2 JP6714019 B2 JP 6714019B2
Authority
JP
Japan
Prior art keywords
image
pose
baseline
current
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017557317A
Other languages
English (en)
Other versions
JP2018518226A5 (ja
JP2018518226A (ja
Inventor
ヨヘン クルエッカー
ヨヘン クルエッカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2018518226A publication Critical patent/JP2018518226A/ja
Publication of JP2018518226A5 publication Critical patent/JP2018518226A5/ja
Application granted granted Critical
Publication of JP6714019B2 publication Critical patent/JP6714019B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本開示は動き補償に関し、より具体的に言えば、医療画像において患者の動きを反映するためのシステム、インターフェース、及び方法に関する。
超音波プローブの電磁(EM)追跡及び先行画像の座標系とEM座標系との位置合わせを使用して、(同じ撮像モダリティ又は他の撮像モダリティの)先行画像を用いる超音波の多重診断法「融合」画像化を可能にすることができる。位置合わせを確立するための自動的な方法は、EM追跡3次元(3D)超音波(US)ボリューム(ベースライン3DUS)の獲得と、それに続く、先行静止画像(例えば、コンピュータ断層撮影(CT)画像)へのベースライン3DUSの手動又は自動での画像ベース位置合わせに基づくものである。
例えば呼吸に起因して臓器の動きが生じた場合、ライブ超音波画像と先行画像との間の位置合わせは、もはや正確ではなくなる。特に、オペレータが腫瘍への針の挿入などの介入を計画している場合、オペレータは、通例、腫瘍の動きを中断させるために息止めを要求することになる。しかしながら、この息止め中の腫瘍の位置は、通例はベースライン3DUS獲得中の位置とは異なる。したがって、先行静止画像との融合画像は不正確さが生じる可能性がある。
臓器の動きを補償するために、現在又は「ライブ」の超音波画像をベースライン3DUSに位置合わせし直すための画像ベース位置合わせ方法が試みられてきた。しかしながら、こうした位置合わせ方法は、位置合わせされる画像間のオーバーラップ又は類似性が不十分である場合にはロバスト又は正確でない。
本原理によれば、動き補償を反映するように画像を融合するためのシステムは、ベースライン画像及び現行画像を取得するように構成された撮像モダリティを含む。ライブ追跡システムが、ベースライン画像及び現行画像を捕捉するために撮像機器を追跡するように構成され、ライブ追跡システムは、ベースライン画像及び現行画像と位置合わせされた座標系を有する。ポーズ分析器ユニットが、ライブ追跡システムを使用して、ベースライン画像のためのポーズと現行ビュー画像のためのポーズとの間の視野差を採用して成功パラメータを生成するように構成される。成功パラメータは、ベースライン画像と現行ビュー画像との間での動き補償のための最適画像獲得に関するフィードバックを提供するために伝達される。
動き補償を反映するように画像を融合するための別のシステムは、ベースライン超音波画像及びライブ超音波画像を取得するように構成された、超音波システムを含む。ライブ追跡システムが、ベースライン画像及び現行画像のための超音波プローブを追跡するように構成され、ライブ追跡システムは、ベースライン画像及び現行画像と位置合わせされた座標系を有する。ポーズ分析器ユニットが、ライブ追跡システムを使用して、ベースライン画像のためのポーズと現行ビュー画像のためのポーズとの間の視野差を採用して成功パラメータを生成するように構成される。成功パラメータは、ベースライン画像と現行ビュー画像との間での動き補償のための最適画像獲得に関するフィードバックを提供するために伝達される。ポーズガイダンスユニットが、現行ビュー画像のための満足なポーズを達成するためにユーザに指示を与えるように構成される。位置合わせシステムが、静止画像をベースライン画像及び現行画像のうちの1つ又は複数と位置合わせするように構成される。
動き補償を反映するように画像を融合するための方法は、ベースライン画像を捕捉すること、対象エリアのライブ画像を取得すること、追跡システムが自身の座標系をベースライン画像及びライブ画像と位置合わせさせるように、ベースライン画像を捕捉するためのポーズを取得するため、及びライブ画像の現行ビューのためのポーズを取得するために、撮像機器を追跡すること、追跡システムを使用して、ベースライン画像のためのポーズと現行ビューのためのポーズとの間の視野差を比較するために現行ビューのためのポーズを分析して、成功パラメータを生成すること、ベースライン画像と現行ビューとの間での動き補償のための最適画像獲得に関するフィードバックを提供するために、成功パラメータを伝達すること、並びに、成功パラメータが適切である場合、現行ビューのポーズで新しい画像を獲得することを有する。
本開示のこれら及び他の目的、特徴、及び利点は、添付の図面に関して読まれるそれらの例示的実施形態の以下の詳細な説明から明らかとなろう。
本開示は、以下の図面を参照しながら好ましい実施形態の以下の説明を詳細に提示する。
一実施形態に従った、動きを補償する画像融合システムを示すブロック/フロー図である。 例示的実施形態に従った、動きを補償しながら画像を融合するための方法を示すフロー図である。 例示的実施形態に従った、成功パラメータを決定するための、ベースライン及び現行ポーズに関する視野を示す図である。 別の例示的実施形態に従った、動きを補償しながら画像を融合するための方法を示すフロー図である。
本原理によれば、システム、方法、及びインターフェースは、現行ビューの成功パラメータに関するフィードバックをオペレータに提供し、最適な成功パラメータを備えるビューを達成するために、ユーザにガイダンスを提供する。成功パラメータは、位置合わせする画像(視野(FOV))間のオーバーラップ又は類似性に関するパラメータである。動きを補償しない場合、融合画像は正確さが低下し、臓器の動きが生じると有用性が低下する。手動での動き補償は煩雑で、不正確であり、ユーザに依存する。自動での画像ベースの動き補償は、位置合わせに使用するライブ画像がベースライン画像との十分なオーバーラップ及び類似性(「成功パラメータ」)を有する場合のみ、高速かつ正確である。オペレータにとって超音波ビューの成功パラメータを評価することは些細なことではないため、オペレータは、3DUS(3次元超音波)画像を獲得し、「試行錯誤」によって動き補償を試行する可能性があり、結果として位置合わせの試行に失敗し、時間を費やし、オペレータの不満を生じさせることになる。
本原理は、画像が獲得され、動き補償が試行される前に、現行ビューの成功パラメータに関するフィードバックを提供し、高いか又は最適な成功パラメータを有するビューへのガイダンスを提供する。本原理は、結果として、多重診断法「融合」画像化手順において効率的な動き補償を生じさせる。動きは、先行する「静的」な超音波ボリュームに対して、「ライブ」又は「現行」の超音波ボリュームの画像ベース位置合わせを使用して補償される。ここで、静的ボリュームは、コンピュータ断層撮影(CT)画像などの別の診断法に事前に位置合わせされる。位置合わせベースの動き補償は、ライブ画像及び静止画像を使用して十分な類似性及びオーバーラップ(成功パラメータ)を発見する。
一実施形態において、ベースライン画像とライブ画像との間の十分なオーバーラップ(成功パラメータ)を可能にするように、視野を比較して画像化器械の類似するポーズを識別する。インターフェースは、静止画像との正常かつ正確な位置合わせを可能にするライブ画像の獲得へとユーザを誘導するために、こうした成功パラメータに関するライブフィードバックを提供する。
動き補償の一実施形態において、オペレータは、先行する静的3DUSと位置合わせ可能な、ライブの電磁(EM)追跡3D超音波(3DUS)画像を獲得する。3DUSのEM追跡及び既知の視野(FOV)に基づき、現行ビューと静止画像との間の関連するポーズ及びオーバーラップを計算することができる。この情報は、所望の対象エリア(例えば、腫瘍)の画像化も行いながら動き補償に好適なビューを識別するために、オペレータに提供される。代替の実施形態において、オペレータは所望の対象エリアを入力し、システムは、正常な動き補償を可能にするための、静止画像に対する十分なオーバーラップ及びポーズの類似性を伴う対象エリアを画像化するために、1つ又はいくつかの好適なビューを計算する。次いでシステムは、3DUS獲得のために事前計算されたポーズに、又はそれに近づけて超音波プローブを配置するようにオペレータにガイダンスを提供する。他の実施形態において、ベースラインビューと現行ビューとの間の画像類似性を採用して、最適な視野の合致を発見する。
本発明は医療撮像機器に関して説明するが、本発明の教示はより広義であり、動き補償が有用ないずれの撮像機器にも適用可能であることを理解されたい。いくつかの実施形態において、本原理は、複雑な生物学的又は機械的システムの追跡又は分析において採用される。特に本原理は、生物学的システムの内部追跡手順に対して、及び肺、消化管、排せつ器、血管などの、身体のすべてのエリアにおける手順において、適用可能である。図面に示される要素は、ハードウェア及びソフトウェアの様々な組み合わせにおいて実施され、単一の要素又は複数の要素において組み合わせ可能な機能を提供する。
図面に示される様々な要素の機能は、専用のハードウェア、並びに適切なソフトウェアに関連してソフトウェアを実行可能なハードウェアを使用することによって、提供可能である。プロセッサによって提供される場合、機能は、単一の専用プロセッサによって、単一の共有プロセッサによって、又は、幾つかが共有可能な複数の個々のプロセッサによって、提供可能である。その上、「プロセッサ」又は「コントローラ」という用語の明示的な使用は、ソフトウェアを実行可能なハードウェアを排他的に指すものと解釈されるべきではなく、限定はしないが、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するための読み取り専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性ストレージなどを暗黙的に含むことができる。
その上、本発明の原理、態様、及び実施形態並びにそれらの特定の例を示す、本明細書におけるすべての文は、それらの構造的等価物及び機能的等価物の両方を包含することが意図される。加えて、こうした等価物は、現在知られている等価物並びに将来開発される等価物(即ち、構造に関係なく同じ機能を実行する開発された任意の要素)の両方を含むことも意図される。したがって当業者であれば、例えば、本明細書で提示されるブロック図は、本発明の原理を具体化する例示的システム構成要素及び/又は回路の概念図を表すことを理解されよう。同様に、いずれのフローチャート、フロー図なども、実質的にコンピュータ読み取り可能記憶媒体内に表され、コンピュータ又はプロセッサによって実行される様々なプロセスを、こうしたコンピュータ又はプロセッサが明示的に示されているか否かにかかわらず、表すことを理解されよう。
更に、本発明の実施形態は、コンピュータ又は任意の命令実行システムによって使用するため、又はそれらに関連して使用するためのプログラムコードを提供する、コンピュータ使用可能又はコンピュータ読み取り可能記憶媒体からのアクセスが可能なコンピュータプログラム製品の形を取ることが可能である。これを説明する目的で、コンピュータ使用可能又はコンピュータ読み取り可能記憶媒体は、命令実行システム、装置、又はデバイスによって使用するため、若しくはそれらに関連して使用するためのプログラムを、含む、記憶する、通信する、伝搬する、又は移送する、任意の装置とすることができる。媒体は、電子、磁気、光、電磁、赤外線、若しくは半導体のシステム(又は、装置若しくはデバイス)、又は伝搬媒体とすることができる。コンピュータ読み取り可能媒体の例には、半導体又はソリッドステートメモリ、磁気テープ、取り外し可能コンピュータディスケット、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、剛性磁気ディスク、及び光ディスクが含まれる。光ディスクの現行の例には、コンパクトディスク−読み取り専用メモリ(CD−ROM)、コンパクトディスク−読み取り/書き込み(CD−R/W)、Blu−Ray(商標)、及びDVDが含まれる。
本明細書における本原理の「一実施形態」又は「実施形態」、並びにそれらの他の変形への言及は、実施形態に関して説明する特定の機能、構造、特徴などが、本原理の少なくとも1つの実施形態に含まれることを意味する。したがって、本明細書全体を通じて様々な場所に現れる、「一実施形態において」又は「実施形態において」という言い回し、並びに任意の他の変形の出現は、必ずしもすべてが同じ実施形態に言及しているとは限らない。
以下の「/」、「及び/又は」、及び「のうちの少なくとも1つ」のいずれかの使用は、例えば、「A/B」、「A及び/又はB」、及び「A及びBのうちの少なくとも1つ」の場合において、第1の列挙された選択肢(A)のみの選択、又は第2の列挙された選択肢(B)のみの選択、又は両方の選択肢(A及びB)の選択を包含することが意図されることを理解されよう。更なる例として、「A、B、及び/又はC」及び「A、B、及びCのうちの少なくとも1つ」の場合において、こうした言い回しは、第1の列挙された選択肢(A)のみの選択、又は第2の列挙された選択肢(B)のみの選択、又は第3の列挙された選択肢(C)のみの選択、又は第1及び第2の列挙された選択肢(A及びB)のみの選択、又は第1及び第3の列挙された選択肢(A及びC)のみの選択、又は第2及び第3の列挙された選択肢(B及びC)のみの選択、又は3つの選択肢(A及びB及びC)のすべての選択を包含することが意図される。この言い回しは、この分野及び関連分野における当業者によって容易に明らかなように、多数の列挙項目に拡張することが可能である。
例えば、画像、画像領域、又はオーバーレイなどの要素が、別の要素「上」又は「の上」にあるものと言及される場合、これは他の要素上に直接あることが可能であるか、又は介在要素が存在する可能性もあることも理解されよう。これに対して、或る要素が別の要素「上に直接」又は「の上に直接」あるものと言及される場合、介在要素は存在しない。或る要素が別の要素に「接続」又は「結合」されているものと言及される場合、これは他の要素に直接接続若しくは結合可能であるか、又は介在要素が存在する可能性もあることも理解されよう。これに対して、或る要素が別の要素に「直接接続」又は「直接結合」されているものと言及される場合、介在要素は存在しない。
次に、同じ数字が同じか又は類似の要素を表す図面を、最初に図1を参照すると、一実施形態に従った画像融合のためのシステム100が例示的に示されている。システム100は、コンピュータ又は他のワークステーション若しくはコンソール112を含み、ここから手順が監視及び/若しくは管理され、並びに/又は画像融合が実行される。ワークステーション112は、好ましくは、1つ又は複数のプロセッサ114、並びにプログラム及びアプリケーションを記憶するためのメモリ116を含む。メモリ116は、同じか又は異なる撮像モダリティから画像を融合するように構成された、複数のモジュール、ユニット、アプリケーション、及び/又はプログラムを記憶する。メモリ116内に記憶されるものとして説明されるモジュールは、実際には、ソフトウェアに加えて又はその代わりに、コネクタ、ワイヤ、回路基板、集積回路チップ、メモリデバイスなどを含む、電子回路又は他のハードウェア構成要素を含むことを理解されたい。
メモリ116は、成功パラメータを計算するために、追跡ベースラインメモリ124に記憶されたベースライン3DUSから、及び、画像プローブ102の現行/ライブ位置で獲得された場合には追跡現行メモリ126内に記憶されるライブ/現行画像111から、空間ポーズ追跡情報を受信する、ポーズ分析器ユニット132を含む。画像プローブ102は、対象者130のライブ又はリアルタイム画像化のための超音波プローブを含む。画像プローブ102は、電磁(EM)追跡115を使用して追跡されるが、他の追跡技術も採用され得る。ポーズ分析器ユニット132は、情報(成功パラメータ)をディスプレイ118に、及び任意選択でポーズガイダンスユニット138に渡す。ポーズガイダンスユニット138は、ディスプレイ118上のグラフィカルユーザインターフェース及び/又はインターフェース120を介して、ユーザ入力(対象エリア)を受信する。ポーズ分析器ユニット132は、視野の類似性を測るためにオーバーラップ及び類似性(成功パラメータ)を計算するのに対し、ポーズガイダンスユニット138は、画像のための最適な視野を取得するためにプローブ102をどのように位置変更するかに関する直接の情報を提供する。例として、ポーズ分析器ユニット132は、オーバーラップの割合(例えば、55%のオーバーラップ)をフィードバックとして提供するが、ポーズガイダンスユニット138は、より高いオーバーラップの割合を達成するために、例えば、「プローブを左へ移動」などの命令を提供することができる。
ユーザには、タスクを実行する、ベースライン画像を複製する、先行静止画像との良好な位置合わせの確率を増大させる等のための最良のポーズを達成するために、リアルタイムフィードバック及び/又はガイダンスが提供される。
ディスプレイ118は、ワークステーション112並びにその構成要素及び機能、又はシステム100内の任意の他の要素との、ユーザの対話も可能にする。これは、キーボード、マウス、ジョイスティック、触覚デバイス、マイクロフォン、スピーカ、照明、又は、ワークステーション112からのユーザフィードバック及びワークステーション112とのユーザ対話を可能にするための任意の他の周辺若しくは制御装置を含む、インターフェース120によって、更に容易になる。インターフェース120は、フィードバック及びガイダンスを提供し、これは、オペレータに表示され、したがってシステムのディスプレイ118上で可視であるか、オーディオフィードバックが採用される場合は可聴であるか、触覚フィードバックが採用される場合は振動などである。
システム100は、超音波プローブ102の空間追跡(例えば、EM追跡デバイス140及びEMプローブ追跡115を使用するEM追跡)に基づく、超音波融合画像システムを提供する。例えば光形状感知などの他の追跡技術も採用可能であることを理解されたい。位置合わせユニット134、例えば多重診断法位置合わせモジュールは、メモリに記憶された先行静止画像122との、又は先行静止画像への、異なる診断法のための位置合わせを提供する。先行静止画像122は、例えば、CT、磁気共鳴、X線、USなどの任意の撮像モダリティ108によって捕捉される。撮像モダリティ108は手順中に提示されるか、又は、静止画像122は前の手順若しくは捕捉した画像から供給される。位置合わせユニット134は、メモリからの先行静止画像122を、メモリ124に記憶されている獲得された空間追跡ベースライン3DUSボリュームと位置合わせする。
ライブプローブ追跡115からの情報、及び、ライブ撮像モダリティ110からの超音波画像111の既知の視野を採用して、新しい画像3DUS 126が獲得、記憶、及び/又は位置合わせに使用される前に、メモリ124に記憶されたベースライン3DUSとの現行ビューのオーバーラップ及びポーズ類似性(例えば、成功パラメータをもたらす相対的回転など)を連続して計算及び表示する。
成功パラメータは、ライブ画像から抽出される画像類似性(例えば、画像のコントラスト、輝度、情報コンテンツ、又は他の特徴)の測定も行う。画像ベースの(ライブ画像からの)成功パラメータは、2D又は予備画像(111)(例えば、ライブ及び/又はベースライン画像)の獲得及び処理を必要とするが、他の成功パラメータは、ポーズ追跡情報(及び超音波視野の知識、但し画像は不要である)のみを必要とすることに留意されたい。
USについて説明したが、診断法の画像化110には他の撮像モダリティが採用可能である。画像の位置合わせは、オーバーラップが小さく、画像間の相対的回転が大きいほど、成功する確率が低くなることに留意されたい。動き補償ユニット128は、新しい画像3DUS 126とベースライン3DUS画像124との間の動きを反映し、EM追跡器140のEM座標系を静止画像122と位置合わせするため、及び、静止画像122に位置合わせされたベースライン画像124についての位置合わせを位置合わせユニット134から提供するために採用される位置合わせユニット136に、動き補償情報を提供する。
動き補償位置合わせユニット128は、ベースライン画像124と追跡現行画像126との間での画像の差を計算する。この情報は、新しい画像を獲得する前に現行ポーズについて成功パラメータを計算するために、ポーズ分析器ユニット132によって採用される。位置合わせユニット及びモジュールは個別に記述されているが、様々な座標系の位置合わせ、変換の計算、及び他の位置合わせ機能は、単一又は複数の位置合わせユニット、エンジン、又はプログラムによって実行できることを理解されたい。
代替の実施形態において、システム100は、ポーズガイダンスユニット138を使用して最適なビューを獲得するためのガイダンスを計算し、それを提供する。最適なビューの計算は、腫瘍などの画像化のために所望の対象エリアのオペレータ入力を使用して、動き補償のために十分な成功パラメータを維持しながら、腫瘍を画像化するビューを発見する。
システム100は、Philips(登録商標)のPercuNav(登録商標)製品などの追跡ベース超音波融合画像化システム上で動作可能であるが、本原理は他のデバイスにも適用可能であり、他の撮像モダリティを含むこともできる。特に有用な実施形態において、本原理は、3DUSベースライン画像124を獲得するシステム上で動作可能であり、3DUSベースライン画像124は、位置合わせユニット134によって、ライブ超音波画像126と融合されることになる先行静止画像(例えば、CT)122に位置合わせされる。1つの目標は、3DUSベースライン画像124が捕捉された時点以降に発生した可能性のある臓器の動きを補償するための、効率的なワークフロー及び方法を提供することである。融合画像化中、超音波システムは通例「ライブ2D」モードであり、超音波スキャナからのライブ2D画像111は、先行静止画像(CT)122と(現行位置合わせユニット134、136を介して)融合される。
オペレータは、腫瘍などの特定対象エリアの融合画像化に関心があり、腫瘍を可視化する異なるやり方を探索するために超音波プローブ102を移動させる。腫瘍の異なるビューが可能であるが、動き補償のためにベースライン3DUS 124との十分なオーバーラップ及びポーズ類似性(成功パラメータ)を有するものはその一部に過ぎない。
システム100は成功パラメータの計算及び表示を続行し、オペレータが十分な成功パラメータを用いて腫瘍のビューを識別できるようにする。オペレータは、任意選択で、続いて患者から息止めを得、腫瘍のライブ2D/3DUS画像111を獲得し、この画像は、獲得されると現行ビューメモリ126に記憶される。動き補償ユニット128は、(メモリ126に記憶される)新しい3DUS画像の獲得によってトリガされる。
システム100は、ライブ3DUS画像126をベースライン3DUS 124と位置合わせすること、及び、表示される融合画像を更新するために位置合わせユニット134からの位置合わせ結果を使用することによって、動き補償を実施する。更新された融合画像は、次に、腫瘍を可視化するため、又は(針の挿入などの)介入を実施するために、オペレータによる使用が可能である。
図2を参照すると、追跡ベースの超音波融合画像化のための方法が例示的に示されている。ブロック202において、融合画像化システムが初期化される。ベースライン画像が獲得され、そのポーズが記憶される。獲得された画像は先行画像(例えば、同じボリュームの静止画像)と位置合わせされる。特に、3DUSベースライン画像の獲得が取得され、次にこの画像は、ライブ超音波と融合されることになる先行静止画像(例えば、CT)に位置合わせされる。ブロック204において、対象エリアのライブ画像が取得される。ライブ画像は、例えば2D又は3DUS画像である。超音波システムは、通常、「ライブ2D」モードであり、超音波スキャナからのライブ2D画像は、(現行位置合わせを介して)先行静止画像(CT)と融合される。
ブロック206において、成功パラメータを計算及び表示するために、ライブ追跡情報(例えば、EMポーズ及び/又は画像特徴)並びにベースラインポーズ及び/又は画像が採用される。任意選択で、ブロック204からのライブ2D画像も成功パラメータの計算に使用される。例えば画像の輝度、コントラストなどのライブ2D画像の特徴を採用して、正常な動き補償のための良好な画像化条件を検出する。1つの目的は、3DUSベースライン画像時点以降に発生した可能性のある臓器の動きを補償するための、効率的なワークフロー及び方法を提供することである。システムは、継続して成功パラメータを計算及び表示し、オペレータが十分な成功パラメータを用いて腫瘍のビューを識別できるようにする。
ブロック208において、成功パラメータの品質の決定が実行される。成功パラメータが十分である場合、経路はブロック210へと進む。十分でない場合、経路はブロック204に戻る。オペレータは通常、腫瘍などの特定対象エリアの融合画像化に関心があるため、腫瘍を可視化する異なるやり方を探索するために超音波プローブを移動させる。腫瘍の異なるビューが可能であるが、動き補償のためにベースライン3DUSとの十分なオーバーラップ及びポーズ類似性(成功パラメータ)を有するものはその一部に過ぎない。
ブロック210において、任意選択の息止めを患者に要求することができる。ブロック212において、新しい画像(例えば、3DUS)の獲得がトリガされる。これは、成功パラメータが適切である場合に生じる。ブロック214において、新しく獲得された画像(例えば、3DUS)がベースライン画像上に位置合わせされる。オペレータは、続いて患者からの息止めを取得し、現行ビュー内に腫瘍のライブ3DUSを獲得し、獲得した3DUSを用いて動き補償をトリガする。
ブロック216において、ブロック214で得た位置合わせ結果を採用して、先行US画像(ベースライン又は以前に獲得されたUS画像)との位置合わせを更新する。システムは、ライブ3DUSをベースライン3DUSと位置合わせし、位置合わせ結果を使用して融合画像を更新することによって、動き補償を実施する。ブロック218において、融合の品質が決定される。品質が良好であれば経路は終了し、次にオペレータは、更新された融合画像を使用して、腫瘍を可視化するか、又は(針の挿入などの)介入を実施することができる。良好でない場合、経路はブロック204に戻り、融合画像の更新を再試行する。
図3を参照すると、図は、図1のポーズ分析器ユニット132における成功パラメータの計算を説明するための超音波画像のオーバーラップを示す。画像オーバーラップ及び相対的ポーズは、成功パラメータとして計算することができる(図3では簡略化するために2Dで示されている)。超音波プローブ312、314は各々、それぞれ異なるビュー302及び304を提供するために位置決めされる。ベースライン3DUS(変換:TUS2EM_base(ベースライン画像に関するUSからEMへの位置合わせ))(ビュー302)及び現行3DUSビュー(変換:TUS2EM_current(現行画像に関するUSからEMへの位置合わせ))(ビュー304)のポーズを使用して、2つのビュー320と304との間の相対的ポーズ変換Tcurrent2base(現行画像からベースライン画像への融合)=inv(TUS2EM_base)・TUS2EM_currentが計算される。この例において、ビュー302はベースライン3DUSポーズを含み、ビュー304は現行3DUSポーズを含む。既知の超音波視野(FOV)(セクタ画像306及び/又は308)を採用して、斜線付き画像エリア310のオーバーラップが計算される。画像角度差αは、相対的ポーズ変換Tcurrent2baseから直接計算される。成功パラメータは、角度(α)及び斜線付きエリア310を含む。角度α=0であり、斜線付きエリア310がビュー302、304と一致する場合、補償すべき動きはない。成功パラメータは、異なるビュー内で獲得された2DUS画像から抽出された、例えば輝度、コントラスト、又は他の画像特徴などのパラメータも含むことができる。
引き続き図3を参照しながら、再度図1を参照すると、システム100は、超音波ビューの成功パラメータを最適化するためのフィードバック及びガイダンスを提供する。このため、ポーズ分析器ユニット132はポーズガイダンスユニット138に接続され、パラメータを増加又は最適化するために必要な超音波プローブの動きを計算する。この情報は、オペレータへの命令(例えば、「左へ移動」、「時計回りに回転」)を示すためにディスプレイ118に渡される。ポーズガイダンスユニット138は、先行静止画像122(例えば、CT)及びそれから導出された情報(例えば、皮膚表面)を使用して、許容可能な超音波ポーズ(例えば、超音波プローブの皮膚への接触)を決定する。
別の実施形態において、システム100は、ユーザによって提供される対象エリアを画像化する超音波ビューの成功パラメータを最適化するために、フィードバック及びガイダンスを提供する。このため、インターフェース120は、オペレータが3DUSベースライン124又は先行静止画像122内に対象エリアを入力できるようにする。情報はポーズガイダンスユニット138に渡され、成功パラメータを最大にしながら、その対象エリアを画像化するビューに向けてのガイダンスを計算する。
ポーズ最適化問題は、ポーズ分析器ユニット132が、プローブ位置及び回転を最適化すべき入力パラメータとして考慮すること(場合によっては、先行静止画像122から導出される、患者の皮膚上の位置に制約される)、及び、現行ポーズで獲得される3DUSに対して動き補償が成功する尤度に反比例する、最小化されることになるコスト関数、fを定義することによって、計算的には解決することができる。1つの好適なコスト関数は、
f_A(p)=100/PercentOverlap(p)+w(1−|α(p)|/90) 式1
を含み、ここで、
は、プローブの現行ポーズを定義するプローブ変換及び回転パラメータのセット{tx,ty,tz,rx,ry,rz}であり、
f_A(p)はポーズpに関連付けられた合計「コスト」であり、
PercentOverlap(p)は、ベースライン3DUS及び現行3DUSによって画像化されるエリアの相対的オーバーラップであり(例えば、100x絶対オーバーラップを合計視野で割る)、
α(p)は、ベースライン3DUSと現行3DUSとの間の回転角度であり、
wは、オーバーラップ及び回転メトリックの相対的寄与を平衡させるための重み付け係数である。
ユーザ提供の対象エリアを使用する実施形態の場合、要件を反映するようにコスト関数を修正し、同時に対象エリアを画像化することができる。例えば、
f_B(p)=f_A(p)/T(p) 式2
であり、ここで、
T(p)は単位段階関数であって、対象エリアが完全に現行の視野内にある場合は1であり、それ以外の場合は非常に小さい(例えば、1e−10)ため、f_B(p)における「コスト」は極めて大きくなる。
コスト関数を使用して、ユーザはUSプローブを移動させ、対象エリアに接近すると、オペレータを動き補償に最適なポーズへと誘導するために、音声、視覚、触覚などのフィードバックがディスプレイ118上に又はインターフェース120から与えられる。コスト関数は、例えば、2D/予備及び/又はベースライン画像から、画像類似性を決定する際に、異なる画像視野並びに画像パラメータの間でのオーバーラップ及び/又は回転を評価するように構成される。ポーズガイダンスユニット138は、ユーザにガイダンスコマンドを提供するためにも、最適なポーズ及び画像類似性に関するコスト関数を採用する。
図4を参照すると、本原理に従った、動き補償を反映するように画像を融合するための方法が例示的に示されている。ブロック402において、ベースライン画像が捕捉される。ブロック404において、対象エリアのライブ画像が取得される。ライブ画像は2D画像であるか、又は予備画像を提供する。ブロック406において、追跡システムが自身の座標系をベースライン画像及びライブ画像と位置合わせさせるように、ベースライン画像を捕捉するためのポーズを取得するため、及びライブ画像の現行ビューのためのポーズを取得するために、撮像機器が追跡される。ブロック408において、追跡システムを使用して、ベースライン画像のためのポーズと現行ビューのためのポーズとの間の視野差を比較するために現行ビューのためのポーズを分析して、成功パラメータを生成する。加えて、ライブ画像及びベースライン画像からのパラメータ/画像特徴も計算及び比較される。ブロック410において、ベースライン画像と現行ビューとの間の動き補償のための最適画像獲得に関するフィードバックを提供するために、成功パラメータが伝達される。成功パラメータは、ベースライン画像と現行ビュー画像との間の視野オーバーラップ及びポーズ類似性を測る。成功パラメータは、オーバーラップ、ポーズ類似性、及び画像類似性を達成するための、異なるパラメータ、例えば、角度、位置、エリア、割合、画像のコントラスト、輝度、又は、他の量若しくは特徴を含む。
ブロック412において、成功パラメータが適切である場合、現行ビューのポーズでの新しい画像が獲得される。これは、2D画像又は予備画像とは対照的に、完璧な3D画像である。成功パラメータの適切さは、ユーザによって決定されるか、又は、自動的に若しくはデフォルトとして設定される。ユーザがベースライン画像視野を複製できるようにするために、ポーズがベースライン画像のポーズの視野に匹敵する視野を現行ポーズにもたらすかどうかが決定される。例えば、適切さを決定するために、閾値、即ち、ベースライン視野と現行視野との間に90%のオーバーラップが設定される。他の基準も企図される。
ブロック414において、ベースライン画像及び現行ビュー画像が位置合わせされる。ブロック416において、静止画像(例えば、CT、MRIなど)が、ベースライン画像及び現行画像のうちの1つ又は複数と位置合わせされる。この位置合わせは、任意の時点で発生し、ベースライン画像が静止画像に位置合わせされることに関しては、好ましくは初期段階(例えば計画)中に発生する。
ブロック418において、ポーズガイダンスユニットを使用して現行ビュー画像のための満足なポーズを達成するための指示が、ユーザに提供される。ポーズガイダンスユニットは、異なる画像視野間のオーバーラップを評価するためのコスト関数を含み、これを計算する。コスト関数は、例えばライブ画像(例えば、予備2D画像)とベースライン画像との間の画像パラメータも考慮する。画像パラメータは、コントラスト、輝度、コンテンツ情報などを含む。
ブロック420において、現行ビュー画像のための満足なポーズを達成するために、フィードバックアクティビティを介してユーザ動作が誘導される。フィードバックアクティビティは、視覚信号(例えば、フラッシュ、画像)、テキストコマンド、音声信号(例えば、ビープ、音声コマンド)、触覚信号(例えば、振動強度、振動変化)などのうちの、少なくとも1つを含む。
添付の特許請求の範囲を解釈する際、
a)「含む」という単語は、所与の請求項に列挙された以外の他の要素又は行為の存在を除外するものではないこと、
b)要素に先行する「a」又は「an」という単語は、複数のこうした要素の存在を除外するものではないこと、
c)特許請求項内のいずれの参照符号も、それらの範囲を限定するものではないこと、
d)いくつかの「手段」は、同じアイテム又はハードウェア又はソフトウェアが実施する構造又は機能によって表されること、及び、
e)いかなる特定シーケンスの行為も、具体的に示されていない限り必要であるものと意図されていないこと、
を理解されたい。
医療手順における動き補償のためのシステム及び方法についての好ましい実施形態(例示的であり限定的ではないことが意図される)を説明してきたが、当業者であれば、上記の教示に鑑みて修正及び変形が可能であることに留意されたい。したがって、添付の特許請求の範囲によって要約された本明細書に開示された実施形態の範囲内にある開示された開示の特定実施形態において、変更が可能であることを理解されよう。このようにして、特許法によって要求される詳細及び特殊性を説明してきたが、添付の請求項では、特許証によって請求及び保護された特許請求の範囲が記載されている。

Claims (15)

  1. 動き補償を反映するように画像を融合するためのシステムであって、前記システムは、
    ベースライン画像及び現行画像を取得するための撮像モダリティと、
    前記ベースライン画像及び前記現行画像を捕捉するために撮像機器を追跡するライブ追跡システムであって、前記ベースライン画像及び前記現行画像と位置合わせされた座標系を有する、ライブ追跡システムと、
    前記ライブ追跡システムを使用して、前記ベースライン画像のためのポーズと現行ビュー画像のためのポーズとの間の視野差に基づいて、前記ベースライン画像と前記現行ビュー画像との間での動き補償のための画像獲得において支援するフィードバックとしての成功パラメータ生成してユーザに伝達する、ポーズ分析器ユニットと、
    を備える、システム。
  2. 前記ポーズ分析器ユニットは更に、前記ベースライン画像と前記現行ビュー画像との間のオーバーラップ及びポーズ類似性の尺度として前記成功パラメータを生成する、請求項1に記載のシステム。
  3. 前記ポーズ分析器ユニットは更に、前記ベースライン画像と現行ポーズで撮影されたライブ画像との間の画像類似性の尺度として前記成功パラメータを生成する、請求項1に記載のシステム。
  4. 前記ポーズ分析器ユニットは、ユーザが前記ベースライン画像の視野を複製できるようにするために、ポーズが前記ベースライン画像のポーズの視野と類似する視野を現行ポーズにもたらすかどうかを決定する、請求項1に記載のシステム。
  5. 前記現行ビュー画像のための所望のポーズを達成するために、前記撮像機器を移動させるための指示を示す指示情報をユーザに提供するポーズガイダンスユニットを更に備える、請求項1に記載のシステム。
  6. 前記ポーズガイダンスユニットが、異なる画像視野間のオーバーラップ及び/若しくは回転、並びに/又は前記ベースライン画像と前記現行ビュー画像との間の画像パラメータを評価するためのコスト関数を含む、請求項に記載のシステム。
  7. 前記現行ビュー画像のための所望のポーズを達成するために、フィードバックアクティビティを介してユーザ動作を誘導するインターフェースを更に備える、請求項1に記載のシステム。
  8. 前記フィードバックアクティビティが、前記ユーザ動作を前記所望のポーズに誘導するための視覚信号、テキストコマンド、音声信号、及び触覚信号のうちの少なくとも1つを含む、請求項に記載のシステム。
  9. 動き補償を反映するように画像を融合するための方法であって、
    ベースライン画像を捕捉するステップと、
    対象エリアのライブ画像を取得するステップと、
    追跡システムが自身の座標系を前記ベースライン画像及び前記ライブ画像と位置合わせさせるように、前記ベースライン画像を捕捉するためのポーズを取得するため、及び前記ライブ画像の現行ビューのためのポーズを取得するために、撮像機器を追跡するステップと、
    前記追跡システムを使用して、前記ベースライン画像のための前記ポーズと前記現行ビューのための前記ポーズとの間の視野差を比較するために前記現行ビューのための前記ポーズを分析して、成功パラメータを生成するステップと、
    前記ベースライン画像と前記現行ビューとの間での動き補償のための画像獲得に関するフィードバックを提供するために、前記成功パラメータを伝達するステップと、
    前記成功パラメータが適切である場合、前記現行ビューの前記ポーズで新しい画像を獲得するステップと、
    を有する、方法。
  10. 前記成功パラメータは、前記ベースライン画像と前記現行ビューとの間のオーバーラップ及びポーズ類似性を測る、請求項に記載の方法。
  11. 前記成功パラメータは、前記ベースライン画像と前記現行ビューの前記ポーズで撮影されたライブ画像との間の画像類似性を測る、請求項に記載の方法。
  12. ユーザが前記ベースライン画像の視野を複製できるようにするために、ポーズが前記ベースライン画像の前記ポーズの視野に匹敵する視野を現行ポーズにもたらすかどうかを決定するステップを更に有する、請求項に記載の方法。
  13. ポーズガイダンスユニットを使用して前記現行ビューのためのポーズを達成するための指示をユーザに提供するステップを更に有する、請求項に記載の方法。
  14. 前記ポーズガイダンスユニットが、異なる画像視野間のオーバーラップ、及び/又は前記ベースライン画像と前記ライブ画像との間の画像パラメータを評価するためのコスト関数を含む、請求項13に記載の方法。
  15. 前記現行ビュー画像のためのポーズを達成するために、フィードバックアクティビティを介してユーザ動作を誘導するステップを更に有し、前記フィードバックアクティビティが、視覚信号、テキストコマンド、音声信号、及び触覚信号のうちの少なくとも1つを含む、請求項に記載の方法。
JP2017557317A 2015-05-07 2016-05-09 医療手順における動き補償のためのシステム及び方法 Active JP6714019B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562158011P 2015-05-07 2015-05-07
US62/158,011 2015-05-07
PCT/IB2016/052623 WO2016178198A1 (en) 2015-05-07 2016-05-09 System and method for motion compensation in medical procedures

Publications (3)

Publication Number Publication Date
JP2018518226A JP2018518226A (ja) 2018-07-12
JP2018518226A5 JP2018518226A5 (ja) 2019-06-13
JP6714019B2 true JP6714019B2 (ja) 2020-06-24

Family

ID=56072372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017557317A Active JP6714019B2 (ja) 2015-05-07 2016-05-09 医療手順における動き補償のためのシステム及び方法

Country Status (5)

Country Link
US (1) US10893851B2 (ja)
EP (1) EP3291735A1 (ja)
JP (1) JP6714019B2 (ja)
CN (1) CN107980148B (ja)
WO (1) WO2016178198A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016175758A2 (en) 2015-04-28 2016-11-03 Analogic Corporation Image guided steering of a transducer array and/or an instrument
US10893851B2 (en) * 2015-05-07 2021-01-19 Koninklijke Philips N.V. System and method for motion compensation in medical procedures
JP7181226B2 (ja) * 2017-05-11 2022-11-30 コーニンクレッカ フィリップス エヌ ヴェ 超音波処置における動き補償のためのワークフロー、システム及び方法
WO2019048286A1 (en) * 2017-09-08 2019-03-14 Koninklijke Philips N.V. LOCATION OF ULTRASONIC PROBE WITH GAP CORRECTION
EP3482690A1 (en) * 2017-11-14 2019-05-15 Koninklijke Philips N.V. Ultrasound tracking and visualization
EP3721411B1 (en) 2017-12-04 2021-04-21 Koninklijke Philips N.V. Image data processing method, device and system
PL3793447T3 (pl) * 2018-05-15 2023-06-26 New York University System i sposób do orientowania wykonywania zdjęć ultrasonograficznych
CN111292277B (zh) * 2018-12-10 2021-02-09 深圳迈瑞生物医疗电子股份有限公司 超声融合成像方法及超声融合成像导航系统
KR20200109467A (ko) * 2019-03-13 2020-09-23 삼성전자주식회사 전자 장치 및 그 제어 방법
NL2023588B1 (en) * 2019-07-29 2021-02-18 Elitac Vibrotactile feedback arrangement
US20210045716A1 (en) * 2019-08-13 2021-02-18 GE Precision Healthcare LLC Method and system for providing interaction with a visual artificial intelligence ultrasound image segmentation module
US11607200B2 (en) * 2019-08-13 2023-03-21 GE Precision Healthcare LLC Methods and system for camera-aided ultrasound scan setup and control
CN112130134B (zh) * 2020-08-17 2023-12-05 河北汉光重工有限责任公司 一种基于时间补偿的实时基线修正方法
US20230172585A1 (en) * 2021-12-03 2023-06-08 GE Precision Healthcare LLC Methods and systems for live image acquisition

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127090B2 (en) * 2001-07-30 2006-10-24 Accuimage Diagnostics Corp Methods and systems for combining a plurality of radiographic images
DE10149795B4 (de) * 2001-10-09 2006-04-06 Siemens Ag Semiautomatische Registrierung zur Überlagerung zweier medizinischer Bilddatensätze
JP4088104B2 (ja) * 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
WO2006015971A1 (en) * 2004-08-09 2006-02-16 Bracco Research Sa An image registration method and apparatus for medical imaging based on mulptiple masks
US20060093192A1 (en) * 2004-11-03 2006-05-04 Bechtel J S Finger guide device
WO2006059668A1 (ja) * 2004-12-03 2006-06-08 Hitachi Medical Corporation 超音波装置、超音波撮像プログラム及び超音波撮像方法
US7912257B2 (en) * 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US20080186378A1 (en) * 2007-02-06 2008-08-07 Feimo Shen Method and apparatus for guiding towards targets during motion
US9597041B2 (en) * 2007-03-30 2017-03-21 General Electric Company Sequential image acquisition with updating method and system
CN101053531A (zh) * 2007-05-17 2007-10-17 上海交通大学 基于多模式增敏成像融合的早期肿瘤定位跟踪方法
CN101861600B (zh) * 2007-11-14 2012-11-28 皇家飞利浦电子股份有限公司 用于定量3d ceus分析的系统和方法
EP2212716B1 (en) * 2007-11-16 2014-02-26 Koninklijke Philips N.V. Interventional navigation using 3d contrast-enhanced ultrasound
US7801271B2 (en) * 2007-12-23 2010-09-21 Oraya Therapeutics, Inc. Methods and devices for orthovoltage ocular radiotherapy and treatment planning
EP3272395B1 (en) * 2007-12-23 2019-07-17 Carl Zeiss Meditec, Inc. Devices for detecting, controlling, and predicting radiation delivery
JP2009200713A (ja) * 2008-02-20 2009-09-03 Sony Corp 画像処理装置、画像処理方法、プログラム
US8348846B2 (en) 2008-09-30 2013-01-08 Mediri Gmbh 3D motion detection and correction by object tracking in ultrasound images
EP2210844B1 (en) * 2009-01-26 2012-04-04 Neopost Technologies Method and apparatus for feeding and folding sheets
US9412044B2 (en) * 2009-06-09 2016-08-09 Siemens Aktiengesellschaft Method of compensation of respiratory motion in cardiac imaging
DE102010009295B4 (de) * 2010-02-25 2019-02-21 Siemens Healthcare Gmbh Verfahren zur Darstellung eines zu untersuchenden und/oder behandelnden Bereichs
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
US20140194793A1 (en) * 2010-05-14 2014-07-10 Kai Medical, Inc. Systems and methods for non-contact multiparameter vital signs monitoring, apnea therapy, apnea diagnosis, and snore therapy
WO2011143631A2 (en) * 2010-05-14 2011-11-17 Kai Medical, Inc. Systems and methods for non-contact multiparameter vital signs monitoring, apnea therapy, sway cancellation, patient identification, and subject monitoring sensors
CN102970926B (zh) * 2010-06-28 2016-08-17 皇家飞利浦电子股份有限公司 Em校准的实时质量控制
CN103402453B (zh) * 2011-03-03 2016-11-16 皇家飞利浦有限公司 用于导航系统的自动初始化和配准的系统和方法
US8810640B2 (en) * 2011-05-16 2014-08-19 Ut-Battelle, Llc Intrinsic feature-based pose measurement for imaging motion compensation
JP2011205681A (ja) * 2011-05-27 2011-10-13 Hitachi Ltd 記録方法
US8588501B2 (en) * 2011-07-29 2013-11-19 Siemens Aktiengesellschaft Automatic pose initialization for accurate 2-D/3-D registration applied to abdominal aortic aneurysm endovascular repair
KR20140049137A (ko) * 2012-10-12 2014-04-25 삼성전자주식회사 의료영상 분석장치 및 방법
US9001226B1 (en) * 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
WO2014110069A1 (en) * 2013-01-11 2014-07-17 The Cleveland Clinic Foundation Alignment of manipulable sensor assembly
US9131922B2 (en) * 2013-01-29 2015-09-15 Eigen, Inc. Calibration for 3D reconstruction of medical images from a sequence of 2D images
US9838670B2 (en) * 2013-03-11 2017-12-05 Carestream Health, Inc. Method and system for three-dimensional imaging
US10278584B2 (en) * 2013-03-11 2019-05-07 Carestream Dental Technology Topco Limited Method and system for three-dimensional imaging
TR201807210T4 (tr) * 2013-11-06 2018-06-21 Koninklijke Philips Nv Bir traş olma prosedürü sırasında bir kullanıcıya kılavuzluk yapmak için bir sistem ve bir yöntem.
US10068373B2 (en) * 2014-07-01 2018-09-04 Samsung Electronics Co., Ltd. Electronic device for providing map information
US20160106381A1 (en) * 2014-10-20 2016-04-21 General Electric Company Ultrasound probe with tactile indicator
US9626589B1 (en) * 2015-01-19 2017-04-18 Ricoh Co., Ltd. Preview image acquisition user interface for linear panoramic image stitching
JP6436442B2 (ja) * 2015-04-10 2018-12-12 キヤノン株式会社 光音響装置および画像処理方法
US10893851B2 (en) * 2015-05-07 2021-01-19 Koninklijke Philips N.V. System and method for motion compensation in medical procedures
US10646199B2 (en) * 2015-10-19 2020-05-12 Clarius Mobile Health Corp. Systems and methods for remote graphical feedback of ultrasound scanning technique
RU2740698C2 (ru) * 2016-03-09 2021-01-19 Эконаус, Инк. Системы и способы распознавания ультразвуковых изображений, осуществляемого с использованием сети с искусственным интеллектом
US10636323B2 (en) * 2017-01-24 2020-04-28 Tienovix, Llc System and method for three-dimensional augmented reality guidance for use of medical equipment

Also Published As

Publication number Publication date
EP3291735A1 (en) 2018-03-14
US20180146955A1 (en) 2018-05-31
US10893851B2 (en) 2021-01-19
CN107980148A (zh) 2018-05-01
JP2018518226A (ja) 2018-07-12
CN107980148B (zh) 2022-06-28
WO2016178198A1 (en) 2016-11-10

Similar Documents

Publication Publication Date Title
JP6714019B2 (ja) 医療手順における動き補償のためのシステム及び方法
KR102013866B1 (ko) 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치
JP7133474B2 (ja) 内視鏡画像及び超音波画像の画像ベースの融合
Askeland et al. CustusX: an open-source research platform for image-guided therapy
US9665936B2 (en) Systems and methods for see-through views of patients
US11278182B2 (en) Enhanced visualization of blood vessels using a robotically steered endoscope
US20170084036A1 (en) Registration of video camera with medical imaging
JP6085598B2 (ja) 画像ガイドインターベンションのための術中画像補正
JP2018198947A (ja) 超音波画像誘導アブレーションアンテナ設置のためのシステムおよび方法
JP2015529478A (ja) ポータブルデバイスを用いたライブビデオ上への術前データのオーバーレイ及び登録
US10424067B2 (en) Image processing apparatus, image processing method and storage medium
JP2018514352A (ja) 後期マーカー配置による融合イメージベース誘導のためのシステムおよび方法
JP2013517909A (ja) 気管支鏡検査法ガイダンスに適用される画像ベースのグローバル登録
US10786309B2 (en) Radiation-free registration of an optical shape sensing system to an imaging system
US10977787B2 (en) Feedback for multi-modality auto-registration
JP2019521768A (ja) 光学的位置感知を使用する医療用ナビゲーション・システム及びその操作方法
JP2022031179A (ja) デバイス対画像レジストレーションの方法、装置及び記憶媒体
CN105030265A (zh) 图像显示设备、方法以及存储图像显示程序的存储介质
US8781188B2 (en) Method and device for displaying changes in medical image data
CN106919781B (zh) 医用图像处理装置
US20160065842A1 (en) Visual data capture feedback
US10930007B2 (en) System and method for medical device tracking
JP2019010382A (ja) 画像位置合わせ装置、方法およびプログラム
US20230147826A1 (en) Interactive augmented reality system for laparoscopic and video assisted surgeries
Lagomarsino Tracciamento e compensazione della deformazione del seno durante biopsia robot-assistita

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200317

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200604

R150 Certificate of patent or registration of utility model

Ref document number: 6714019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250