JP2020518937A - 予測融合システムと方法 - Google Patents

予測融合システムと方法 Download PDF

Info

Publication number
JP2020518937A
JP2020518937A JP2020511859A JP2020511859A JP2020518937A JP 2020518937 A JP2020518937 A JP 2020518937A JP 2020511859 A JP2020511859 A JP 2020511859A JP 2020511859 A JP2020511859 A JP 2020511859A JP 2020518937 A JP2020518937 A JP 2020518937A
Authority
JP
Japan
Prior art keywords
image
feature
processor
information
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020511859A
Other languages
English (en)
Inventor
ジョナサン ウィリアム パイパー
ジョナサン ウィリアム パイパー
Original Assignee
エムアイエム ソフトウェア, インコーポレイテッド
エムアイエム ソフトウェア, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エムアイエム ソフトウェア, インコーポレイテッド, エムアイエム ソフトウェア, インコーポレイテッド filed Critical エムアイエム ソフトウェア, インコーポレイテッド
Publication of JP2020518937A publication Critical patent/JP2020518937A/ja
Priority to JP2023129221A priority Critical patent/JP2023153209A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/58Testing, adjusting or calibrating the diagnostic device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30081Prostate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Quality & Reliability (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

異なるモダリティの画像間の予測アライメントおよび当該アライメントの同期を提供する画像融合システム。空間トラッカーは、環境内の撮像装置の位置と方向を検出および追跡する。撮像装置の所望位置および方向に関して、以前に取得された画像データに基づき、解剖学的特徴の予測姿勢を判断する。撮像装置が所望位置および方向に移動されると、画像データ内の解剖学的特徴の姿勢と、撮像装置によって撮像された解剖学的特徴の姿勢との間の関係が確立される。処理中に撮像装置が様々な位置に移動されても、空間トラッカーにより提供されるトラッキング情報に基づいて上記関係が維持される。

Description

(関連出願の相互参照)
本願は、2017年5月4日に出願された米国仮出願第62/501,329号の優先権を主張する。当該出願の全体が参照により本明細書に組み込まれる。
本願は、一般に、画像の登録および融合に関するものであり、より詳細には、撮像装置の空間トラッキングを介して画像の登録および融合を容易にするためのシステムおよび方法に関するものである。
画像融合は、一般に、異なる画像からの情報を単一の合成画像に結合することに関する。医用画像では、例えば、融合は、合成画像を生成するために、何らかの方法で、異なる画像を登録し、結合することを含むことができる。合成画像は、画像品質を改善したり、診断、治療の計画と評価、病状の進行のトラッキングなどのために画像の使いやすさを向上させたりできる。医用画像では、融合された2つ以上の画像は、同一の画像モダリティまたは異なる画像モダリティとすることができる。同一のモダリティにおける複数の画像を融合して、病状の進行または治療の有効性を確認することができる。異なるモダリティの画像は、別のモダリティの利益または利便性を活用するために組み合わせることができる。
例えば、磁気共鳴画像法(MRI)は、良好な組織コントラストを提供する。したがって、MRIは、比較的容易に正常な組織と病変またはその他の異常とを区別することができる。即ち、MRIは検出と計画作成に良好に機能する。画像ガイド法の場合、撮像装置のコストと非携行性のためにMRIが不便になることがある。例えば、前立腺の生検をとる場合は、携行性があり、高い空間解像度を提供できる超音波によって行われることが多い。しかしながら、MRIと比較して、超音波の組織識別性は低い。したがって、MRIと超音波との融合により、それぞれのモダリティからの情報を結合して、画像ガイド法の実行を改善することができる。
ここで、以下の詳細な説明および付属図面における例示的で非限定的な実施形態の様々な態様の基本的または一般的な理解を可能にするために、簡単に概要を説明する。但し、この概要は、広範囲または網羅的な概要としては意図されていない。本概要の目的は、以下の様々な実施形態のより詳細な説明の前提として、いくつかの例示的で非限定的な実施形態に関連するいくつかの概念を簡潔に提示することにある。
種々の非限定的実施形態では、画像を取得すると、異なるモダリティの画像間の予測アライメントと当該アライメントの同期とを提供する。空間トラッカーは、環境内における撮像装置の位置および方向を検出、追跡する。例えば、本撮像装置は、手続き間撮像(intra-procedural imaging)に適した装置である。撮像装置に対する異なるモダリティの画像データに基づき、撮像装置の所望の位置および方向に対する解剖的特徴の予測姿勢を判断できる。撮像装置が所望位置および方向に移動されると、画像データ内の解剖学的特徴の姿勢と撮像装置によって撮像された当該解剖学的特徴の姿勢との関係が確立される。処理中に撮像装置が様々な位置に移動させられても、空間トラッカーにより提供されるトラッキング情報に基づき、当該関係が維持される。
これらおよび他の実施形態は、以下でより詳細に説明される。
種々の非限定的実施形態について、以下の図面を参照してさらに説明する。
図1は、一以上の態様における画像融合システムの例示的な非限定的実施形態のブロック図である。 図2は、図1の画像融合システムに関連する演算装置の例示的な非限定的実施形態の概略ブロック図である。 図3は、一以上の態様による医用画像融合のための例示的な非限定的実施形態の概略ブロック図である。 図4は、少なくとも2つの画像モダリティ間の融合を予測するための例示的な非限定的方法のフロー図である。 図5は、ライブ画像と以前に取得された画像との間の融合を生成するための例示的な非限定的方法のフロー図である。 図6は、撮像装置の所望の位置および方向に対する解剖学的特徴の予測された姿勢を示すためにオーバレイされた輪郭を有する例示的な画像である。 図7は、オペレータが画像化された解剖学的特塗油とオーバレイされた輪郭とが並ぶように撮像装置を配置した後に、撮像装置によって撮影された画像の例である。 図8は、オーバレイされた輪郭線が撮像装置の動きに応じて更新された後に、当該撮像装置の動きに続けて撮影された画像の例である。 図9は、本明細書に記載される様々な実施形態の1つ以上の側面を実現することができる、例示的で非限定的な計算システムまたはオペレーティング環境を表すブロック図である。
背景で説明したように、医用画像融合は、異なる画像モダリティの強みを利用し、広範囲の応用性を有する結合情報を生成することができる。例えば、前立腺のMRIおよび超音波画像の融合は、解剖学的特徴を正確に同定することにより、効果的な手続き間画像(intra-procedural images)を提供することができる。しかしながら、多くの要因のために、MRI画像および手続き間超音波画像(intra-procedural ultrasound images)における前立腺のそれぞれの向きは、顕著に変化する可能性がある。これらの顕著な違いは、2つのモダリティ間の計算上の困難性かつ不完全な登録をもたらす。
種々の非限定的な実施形態では、画像融合のためのシステムおよび関連する方法が提供される。空間トラッキングされた撮像装置によって提供されるライブ画像に基づいて、撮像装置が解剖学的特徴に対して所望の位置および方向に整列しているかどうかを判断することができる。特に、所望の位置および方向は、以前に取得された画像データに関連付けられた特徴情報に基づいて指定することができる。当該画像データは、ライブ画像とは異なるモダリティであってもよい。特徴情報は、以前に取得された画像データの中の解剖学的特徴の位置と方向を特定する。この画像データおよび特徴情報は、所望の位置および方向における撮像装置の観点から見た特徴の姿勢を示すように変換することができる。
所望の位置および方向にアライメントされると、ライブ画像と以前に取得された画像データとの間の関係を確立することができる。ロックされると、空間トラッカーからのトラッキング情報により、以前に取得された画像データの処理を把握することができる。具体的には、画像データおよび/または特徴情報は、アライメントを維持するために、撮像装置の移動に応じて変換される。例えば、現在の空間位置と基準空間位置(すなわち、所望の位置と方向)との間の空間変換は、少なくとも部分的に、トラッキング情報に基づいて決定され得る。空間変換に基づき、その後、以前に取得された画像および/または特徴情報に対応する変換処理を適用することができる。
ある実施形態では、コンピュータで実行可能な命令を記憶するメモリに接続されたプロセッサを備えるシステムが提供される。プロセッサによって実行されると、命令は、プロセッサにより、第1モダリティの第1画像内の特徴の姿勢を示す特徴情報を取得し、第2モダリティの画像を生成する手持ち式撮像装置の位置および方向を識別するように構成された空間トラッカーから、少なくとも3自由度のトラッキング情報を取得し、撮像装置の姿勢が、特徴情報またはトラッキング情報の少なくとも1つに基づいて、特徴の基準姿勢と一致する姿勢を有する特徴の第2画像を生成するのに適した所定の姿勢と一致するときを決定する。ある実施例によれば、特徴情報は、撮像装置の所定方向に対する第1画像内の特徴の方向を特定する。例えば、特徴情報は、第1画像の特徴の輪郭を含むことができる。
プロセッサは、さらに、撮像装置の動きに応答して、少なくとも1つのトラッキング情報または特徴情報に基づき、撮像装置によって生成された第2画像における特徴の姿勢指標を更新することができる。プロセッサは、空間における撮像装置の姿勢と撮像装置の撮像面の姿勢との間の関係を取得し、当該関係に基づいて、第2画像における特徴の姿勢の指標を更新することができる。さらに、撮像装置の現在の姿勢と撮像装置の基準姿勢との間の空間的関係も、例えば、トラッキング情報に基づいて決定される。撮像装置の基準姿勢は、例えば、上述した所定の姿勢に対応することができる。特徴の姿勢の指標を更新するために、プロセッサは、仮想撮像面に沿って第1画像を再分割することができる。プロセッサは、トラッキング情報に基づいて仮想撮像面を決定することができる。さらに、プロセッサは、仮想撮像面に対応する第1画像の画像データを補間することができる。さらに別の例では、プロセッサは、第1画像と第2画像との間の変換を識別し、当該変換を特徴情報に適用することができる。
さらに、プロセッサは、撮像装置から取得されたライブ画像を表示することができる。プロセッサは、特徴情報に基づいて、ライブ画像上にオーバレイを表示することもできる。さらに、プロセッサは、撮像装置によって取得されたように、第2画像における特徴の姿勢の指標に基づいて、オーバレイを更新することができる。
他の態様によれば、方法が記載される。この方法は、撮像装置から第1モダリティのライブ画像を取得するステップを含む。さらに、この方法は、撮像装置の位置および方向を示す空間トラッカーからトラッキング情報を取得することを含むことができる。さらに、この方法は、撮像装置が、ライブ画像の特徴に対して所望の姿勢にあるかどうかを判断することによって、撮像装置の姿勢と、第2のモダリティの第2画像の特徴の姿勢との関係を確立することを含み得る。ここで、撮像装置が所望の姿勢にあるかどうかの判断は、第2画像の特徴の姿勢を示すトラッキング情報または特徴情報の少なくとも1つに基づいてされる。
一例によれば、本方法は、トラッキング情報または確立された関係の少なくとも1つに基づいて、撮像装置の動きに応答して、ライブ画像内の特徴の指標を更新することを含むことができる。特徴の指標は、最初に、特徴に対する撮像装置の所望の姿勢に関して、第2画像における特徴の姿勢を示す特徴情報に基づき生成することができる。例えば、特徴情報は輪郭とすることができる。特徴の指標を更新することは、仮想撮像面に沿って第2画像を再分割することを含み、ここで、仮想撮像面は、トラッキング情報に基づいて決定される。画像の再分割は、仮想撮像面に対応する第2画像の画像データを補間することを含むことができる。別の例では、特徴の指標を更新することは、撮像装置の所望の姿勢と、トラッキング情報によって提供される撮像装置の位置および方向との間の変換を決定することと、特徴の指標に変換を適用することとを含むことができる。
さらに別の実施形態では、コンピュータ読取可能記憶媒体が記載される。コンピュータ読取可能記憶媒体は、プロセッサによって実行されると、プロセッサを構成するコンピュータで実行可能な命令を記憶する。プロセッサは、第1モダリティの第1画像の特徴を指標する特徴情報と、第2モダリティの画像を生成するように構成された撮像装置の所望の姿勢に対する第1画像の特徴の姿勢とを取得し、少なくとも3自由度の空間における撮像装置の位置と方向を追跡する空間トラッカーからトラッキング情報を取得し、撮像装置によって生成されたライブ画像、特徴情報、またはトラッキング情報の少なくとも1つに基づいて、撮像装置がいつ所望の姿勢にアライメントされたかを判断する。
一例では、コンピュータ読取可能記憶媒体に記憶されたコンピュータで実行可能な命令は、トラッキング情報または特徴情報の少なくとも1つに基づいて、ライブ画像内の特徴の指標を更新するようにプロセッサをさらに構成する。例えば、媒体は、トラッキング情報に基づいて決定された仮想撮像面に沿って第1画像を再分割するようにプロセッサを構成し、仮想撮像面に沿って特徴情報を補間して、ライブ画像内の特徴の姿勢の更新された指標を生成する命令を含むことができる。別の例では、コンピュータ読取可能記憶媒体に記憶されたコンピュータで実行可能な命令は、更に、所望の姿勢と、トラッキング情報によって提供される撮像装置の位置と方向との間の変換を決定するようにプロセッサを構成し、そして、当該変換を特徴情報に適用して、ライブ画像における特徴の姿勢の指標を更新する。加えて、媒体は、ライブ画像中の特徴の姿勢の初期指標を表示するようにプロセッサを構成する命令を格納する。初期指標は特徴情報に基づいて生成され、撮像装置を所望の姿勢にアライメントさせるためのガイドを提供する。
予測的融合のいくつかの実施形態の概要を、上に示した。次に、ロードマップとして、予測画像融合をより詳細に記述する。その後、上記のような実施形態および/または特徴を実施することができる例示的なコンピュータ装置およびコンピュータ環境について説明する。上述の特徴および実施形態は、図面を参照して説明され、ここで、同様の参照符号は、全体を通して同様の要素を参照するために使用される。
(予測画像登録と融合)
上述したように、種々の実施形態では、異なるモダリティの画像の融合を決定することができ、画像間のアライメントは、ライブ画像を提供し、空間内で自由に動くことが可能な撮像装置によって固定することができる。
図1は、画像融合システム100の例示的な非限定的実施形態を示すブロック図を示す。図示されるように、画像融合システム100は、計算装置110、撮像装置120、および空間トラッカー130を含むことができる。計算装置は、プロセッサと、種々のコンピュータ読取可能記憶媒体(例えば、揮発性および不揮発性)とを含むことができる。コンピュータ読取可能記憶媒体は、本明細書に記載される融合エンジン112のような機能モジュールの少なくとも一部を実施するコンピュータで実行可能な命令を記憶することができる。コンピュータで実行可能な命令がプロセッサによって実行されると、画像融合システム100は、本明細書に記載される処理を実行する。
計算装置110は、さらに、融合エンジン112の一部を実現するために、様々なハードウェア装置(図示せず)を含むことができる。例えば、計算装置110は、グラフィックス処理ユニット(GPU)、専用メモリ、および/またはグラフィックス装置をディスプレイに接続するハードウェアインターフェースを有するグラフィックス装置を含むことができる。さらに、計算装置110は、撮像装置120および空間トラッカー130のような画像融合システム100の様々な装置に計算装置110を接続するために、物理的なハードウェアポートおよび/または無線インターフェース(例えば、Bluetooth(登録商標)、無線USBなど)を含むことができる。
図示のように、撮像装置120は、撮像プローブ122および画像プロセッサ124を含むことができる。一態様では、撮像装置120は、超音波撮像装置のような手続き間撮像に適した、比較的安価で携帯可能な装置であり得る。但し、本明細書に記載され、主張される特徴および態様は、超音波での適用に限定されず、他の撮像モダリティと共に使用するために容易に適合され得ることが理解されるべきである。
超音波の例では、撮像プローブ122は、超音波パルスを発し、エコーを受信するように構成された1つ以上のトランスデューサアレイを含むことができる。エコーは電気信号に変換され、超音波画像を生成するために画像プロセッサ124に供給される。画像プロセッサ124は、計算装置110とは別に示されているが、エコー信号の処理は、計算装置110によって行うことができる。例えば、別個のソフトウェアアプリケーションまたは融合エンジン112のモジュールは、撮像プローブ122からの信号を処理することができる。さらに、撮像装置120は、撮像プローブ122と画像プロセッサ124の両方を含むものとして示されているが、ここで用いる「撮像装置」という用語は、画像を生成するために集合的に補間するすべての構成要素、または文脈に応じて、トランスデューサアレイ(すなわち、プローブ)を収容する部分を指すことができる。例えば、空間トラッキングに関連して記述される場合、「撮像装置」という用語は、最終的に撮像されるものを指図または標的にするために操作することができる全体的な撮像装置を意味すると理解されるべきである。
一態様では、センサ132は、撮像プローブ122に接続されてもよいし、撮像プローブ122と一体化されてもよい。センサ132は空間トラッカー130と協働して、空間における撮像プローブ122の位置および方向を示すトラッキング情報を生成する。一例によれば、空間トラッカー130は、3次元の基準座標系を確立するEM場を生成するEM源を含む電磁(EM)トラッキングシステムであってもよい。この例によれば、センサ132は、直角に整列された誘導コイルまたは他の装置を含み、受信したEM場の強度を示す信号を生成することができる。これらの信号は、EM源によって確立された3次元の基準座標系におけるセンサ132の位置および方向の判断を可能にする。信号は、処理および位置の判断のために、有線または無線接続を介して計算装置110に送信することができる。例えば、EMトラッキングシステムでは、信号は、典型的には、センサ132によって通信される。しかしながら、代わりに、信号を空間トラッカー130によって受信し、その後、前処理または生データとして計算装置110に転送してもよい。さらに、上記の例はEMベースの位置決めシステムを意図しているが、他のトラッカーを利用することもできる。例えば、空間トラッカー130は、加速度計/ジャイロ計ベースのトラッカー、赤外線トラッカー、光学トラッカー、音響トラッカー、レーザートラッカー、RFベースのトラッカー、または、限定されるものではないが、機械的空間トラッキング(例えば、プローブステッパーまたはガントリー)のような基準座標系内のセンサの位置および方向を識別可能な、実質的に任意の他のタイプの空間トラッキング・位置決めシステムであってもよい。
さらなる態様において、センサ132は、撮像プローブ122に接続またはこれと統合され、プローブ122の撮像面に対するセンサ132の位置の既知の関係を確立する。したがって、この関係に基づいて、空間トラッカー130によって提供される基準空間フレーム内の撮像面(および生成された画像)の位置および方向も既知となる。センサ132の位置と撮像面との間の関係は、関係を測定することによって(すなわち、プローブ製造業者によって明示的に設計され)、またはキャリブレーションによって決定することができる。例として、空間基準フレーム内のセンサ132の位置と撮像面との間の既知の関係をキャリブレーションまたは確立する技術は、制御オブジェクトの撮像を含む。例えば、オブジェクト(例えば、いくつかのスレッドの交点)を、様々な位置および/または方向から、水の入ったバケツに画像化することができる。その後、空間変換が決定され、オブジェクトとして識別された画像内の画素と空間基準フレーム内のセンサの位置との関係が解決される。例えば、空間変換は、幾つかの未知の変数(空間における平行移動と回転)と複数のオブジェクトの画像を含む線形方程式の解とすることができる。線形方程式は、取得された画像の数が未知の数よりも大きくなるように、過剰に決定(overdetermined)され得る。なお、上記の技術は単なる例示的なものであり、他のキャリブレーション技術も利用できる。
融合エンジン112は、この関係を利用して、撮像装置120によって生成された画像と画像データ140との間の融合を容易にする。当該画像データは、例えば、以前に取得された異なるモダリティの画像データを含み得る。例として、前立腺の画像ガイド生検について検討する。画像データ140は、撮像装置120によって生成されたものとは異なるモダリティでの前立腺の撮像を含み得る。画像データ140のモダリティはより良い組織識別能力を有し、その結果、前立腺が容易に識別され、前立腺の正常な組織と異常な組織とを区別できる。
以前に取得した画像の前立腺の位置や姿勢、異常組織の位置や姿勢は、特徴情報によって特定することができる。一実施例では、特徴情報は、前立腺の輪郭と、異常組織を示す別の輪郭とを含むことができる。一般に、用語「特徴情報」は、医用画像内の特徴または物体の姿勢を特定する画像または他のデータに関する。本明細書で用いられるように、用語「姿勢」は、他のオブジェクトに対して定義することができる、所定の基準フレームにおけるオブジェクトの位置および方向を意味する。一例として、画像内の特徴の姿勢は、画像内または画像空間もしくは体積内に示されるような特徴の位置および方向に関する。撮像装置の姿勢は、識別された基準(例えば、特徴、トラッキングボリュームなど)に対する撮像装置の位置および方向に関係し、同じ識別された基準に対する撮像装置の撮像面の方向を参照することもできる。
画像データ140内で判断された特徴(例えば前立腺)の姿勢により、融合エンジン112は、当該特徴に対する撮像装置120の基準位置および方向(または姿勢)を判断することができる。基準位置は、例えば、基準姿勢における撮像装置の視点からの特徴のアウトラインとしてディスプレイ上に示され得る。より詳細には、基準姿勢の撮像装置が撮像面を規定する。画像データ140および/または特徴情報は、アウトラインを導出するために画像面に沿って再サンプリングされる。すなわち、撮像面と交差するボクセルデータまたは輪郭データが、特徴のアウトラインまたは他の指標を生成するために利用される。
撮像装置120は、計算装置110によって表示可能なライブ画像を生成することができる。融合エンジン112は、アライメントを容易にするために、ライブ画像上に特徴のアウトラインをオーバレイするように構成される。例えば、図6は、撮像装置120によって撮影され、上述したように、融合エンジン112によって生成されたアウトラインと共に表示される初期画像の例を示す。オペレータは、ライブ画像上で、特徴がアウトラインと一致するまで、撮像装置120を操作する。例えば、図7は、オペレータが撮像装置120を操作して、画像化された特徴をアウトラインとアライメントさせた後の例示的な画像を示す。
一旦、特徴が一致すると、融合エンジン112は、空間(すなわち、空間トラッカー130によって提供される基準フレーム)内の撮像装置120の姿勢と画像データ140内の特徴の姿勢との間の関係を確立することができる。融合エンジン112は、この関係を使用して、ライブ画像と画像データ140との間の融合を固定する。特に、融合エンジン112は、表示された特徴情報(例えば、アウトライン)とライブ画像における当該特徴の姿勢との間のアライメントを維持する。例えば、オペレータが撮像装置120を動かすと、画像データ140が処理、変換され、変化するライブ画像上に表示される特徴の更新アウトラインを提供する(すなわち、融合を更新する)。例えば、図8は、オペレータが撮像装置120を移動した(例えば傾けた)後に、撮像装置120によって撮影された例示的な画像を示す。図8において、特徴のアウトラインは、対応関係を維持するために撮像装置の動きに応じて更新される。
空間トラッカー130は、空間内の撮像装置120の姿勢を示すトラッキング情報を生成する。融合エンジン112は、トラッキング情報に基づいて、対応する撮像面の位置および方向を判断し、この撮像面に沿って画像データ140を再分割する。特徴情報(例えば、輪郭線)も、更新アウトラインを生成するために、撮像面に沿って再分割することができる。したがって、オペレータが撮像プローブ122を動かしてライブ画像が変化すると、融合エンジン112は、これに応じて画像データ140から得られた特徴情報を更新し、ライブ画像および画像データ140に基づく複合画像を提供する。
撮像装置120の移動の有無にかかわらず、患者が場所を移動する場合、撮像面と特徴との間の関係が変化することがある。したがって、関係(すなわち、初期アライメント)を更新する必要があり得る。別の態様では、計算装置110は、オペレータが関係を修正するためにアウトラインまたは輪郭を手動で調整することができる。あるいは、融合エンジン112は、関係を再び固定することができる。例えば、融合エンジン112は、新たな基準姿勢を決定し、撮像装置120によって撮像される特徴が新たな基準姿勢に対応するときを識別することができる。
図2は、図1の画像融合システム100に関連する計算装置110の例示的な非限定的実施形態の概略ブロック図を示す。図2に示すように、計算装置110は、融合エンジン112を構成するコンピュータで実行可能な命令を実行するように構成された1つ以上のプロセッサ202を含む。このようなコンピュータで実行可能な命令は、記憶装置208のような非一時的でコンピュータ読取可能な記憶媒体を含む1つ以上のコンピュータ読取可能媒体に記憶される。例えば、記憶装置208は、融合エンジン112および/またはデータ212(例えば、画像データ、特徴情報、トラッキング情報、取得画像データ、構成情報、作業データなど)を永続的に記憶するための不揮発性記憶装置を含むことができる。記憶装置208はまた、プロセッサ202による実行中に、融合エンジン112および他のデータ212(またはその一部)を記憶する揮発性記憶装置を含むことができる。
計算装置110は、計算装置110を種々の遠隔システム(例えば、画像データ記憶装置、撮像装置等)に接続する通信インターフェース206を含む。通信インターフェース206は、有線または無線インターフェースとすることができ、WiFiインターフェース、イーサネットインターフェース、光ファイバーインターフェース、携帯無線インターフェース、衛星インターフェースなどが含まれるが、これらに限定されない。また、計算装置210を、ディスプレイ、タッチスクリーン、キーボード、マウス、タッチパッド等の様々な入出力装置に接続するI/Oインターフェース210も設けられる。一例として、I/Oインターフェース210は、有線または無線インターフェース、例えば、USBインターフェース、シリアルインターフェース、WiFiインターフェース、短距離RFインターフェース(Bluetooth)、赤外線インターフェース、近距離通信インターフェース(NFC)などを含むが、これらに限定されない。また、計算装置110を、有線または無線で、融合エンジン112によって利用される様々な周辺装置に接続する周辺インターフェース204も示されている。例えば、周辺インターフェース204は、計算装置110をセンサ132と接続させて信号を受信したり、撮像装置120と接続させてライブ画像を受信したり、撮像プローブ122と接続させて処理用の生信号を受信したり、および/または、空間トラッカー130と接続させてトラッキング情報を受信したりする。
次に図3を参照すると、例示的な非限定的な融合エンジン112のブロック図が示されている。図3に示すように、融合エンジン112は、コンピュータで実行可能な命令によって実行される種々の機能モジュールを含むことができる。モジュールは、初期化モジュール302、同期モジュール304、融合モジュール306、および表示モジュール308を含むことができる。
初期化モジュール302は、本明細書に開示される通り、医用画像融合を実行するように融合エンジン112を構成するためのユーザ入力314を受信する。例えば、初期化モジュール302は、ユーザ入力314に含まれる選択に基づいて、ローカルまたはリモートの記憶装置から画像データ316をロードする。初期化モジュール302はまた、撮像装置の基準姿勢を確立することもでき、これは、デフォルト姿勢であっても、ユーザ入力314内に提供される姿勢であってもよい。上述したように、基準姿勢は、本明細書中の1つ以上の態様にしたがって画像融合を達成するための、所望の姿勢であり、撮像装置の初期ターゲット姿勢でも良い。基準姿勢に基づいて、初期化モジュール302は、画像データ316および特徴情報318を処理して、表示ジュール308によってライブ画像データ322と接続される初期融合情報(例えば、ディスプレイデータなど)を生成し、ディスプレイ上に表示可能な合成画像324を生成することができる。
同期モジュール304は、撮像装置が基準姿勢とアライメントするときを判断し、空間内の撮像装置の姿勢と特徴情報318によって提供される画像316内の特徴の位置および方向との関係を固定する。同期モジュール304は、ユーザ入力314に基づいてアライメントを判断することができる。例えば、ライブ画像データ322と合成された初期融合情報が、ライブ画像内の特徴と画像データ316からの特徴との間のアライメントを視覚的に示す場合、オペレータは入力を提供することができる。あるいは、登録エンジンまたは他の画像処理モジュールは、合成画像324、画像データ316、特徴情報318、および/またはライブ画像データ322を評価して、アライメントを計算的に判断することができる。
関係が確立されると、融合モジュール306はアライメントを維持する。例えば、融合モジュール306は、空間トラッカーからのトラッキング情報320に基づいて撮像装置の姿勢を判断する姿勢判断モジュール310を含む。変換モジュール312は、画像データ316および/または特徴情報318を処理して、合成画像324を生成するために、ライブ画像データ322と接続される融合情報を更新する。上述したように、変換モジュール312は、トラッキング情報320によって特定された姿勢における撮像装置の撮像面に対応する仮想画像面にしたがって、画像データ316および/または特徴情報318を再分割することができる。別の例では、トラッキング情報320に基づいて変換を決定することができ、決定された変換を、ライブ画像データ322と合成された融合情報に直接適用することができる。
図4は、少なくとも2つの画像モダリティ間の融合を予測するための例示的な非限定的方法のフロー図を示す。図4の方法は、例えば、前述したように、画像融合システム100および/または計算装置110上で実行される融合エンジン112によって実行することができる。400において、第1モダリティの第1画像における特徴の位置および方向が識別される。たとえば、第1画像内の特徴を示す輪郭を定義できる。402では、第2モダリティの撮像装置の位置および方向を特定するトラッキング情報が得られる。トラッキング情報は、空間トラッキングまたは他の位置決めシステムによって取得することができる。404において、撮像装置が特徴に対して所定の姿勢に置かれたか判断される。当該判断は、トラッキング情報、特徴情報(例えば、輪郭)、第1画像の画像データ、またはユーザ入力に基づいて行うことができる。406において、第1画像データおよび/または関連する輪郭がトラッキング情報に応じて変換され、第1画像と撮像装置によって生成された画像との間のアライメントを維持する。
次に図5を参照すると、ライブ画像と以前に取得した画像との間の融合を生成するための例示的な非限定的方法のフロー図が示されている。図5の方法は、例えば、上述したように、画像融合システム100および/または計算装置110上で実行される融合エンジン112によって実行される。500において、第1モダリティのライブ画像が撮像装置から取得される。502において、異なるモダリティの第2画像から、特徴の指標がライブ画像上に表示される。504において、撮像装置が特徴に対して所望の姿勢にあると判断されたときに、ライブ画像と第2画像との間に関係が確立される。506において、トラッキング情報が取得される。トラッキング情報は、基準空間における撮像装置の位置および方向を特定する。508において、トラッキング情報に基づいて第2画像が処理され、ライブ画像上に表示された特徴の指標、および場合によっては他の特徴を更新する。
上述した例示的な実施形態は、画像融合の説明において提示されている。これらの概念は、画像補正といった他のコンテキストに拡張することができる。例えば、画像の一部を結合または合成する(すなわち、重ね合わせる)のとは対照的に、比較のために、画像、またはそれらの一部を並べて、または別の配置で表示することができる。
(例示的なコンピュータ装置)
前述のように、本明細書に記載される技術は、異なるモダリティの画像の予測融合およびライブトラッキングを提供することが望ましいあらゆる装置に適用することができる。したがって、登録可視化システムの様々な実施形態に関連して、あらゆる種類の手持ち式で携帯可能な他の計算装置、並びに計算オブジェクトでの使用が期待できる。したがって、図9で後述する以下の汎用コンピュータは、コンピュータ装置の一例に過ぎない。
実施形態は、装置またはオブジェクトのサービス開発者による使用のために、オペレーティングシステムを介して部分的に実施することができ、および/または、本明細書に記載される様々な実施形態の1つ以上の機能的態様を実行するアプリケーションソフトウェア内に含めることができる。ソフトウェアは、プログラムモジュールのようなコンピュータで実行可能な命令の一般的な文脈において、クライアントワークステーション、サーバまたは他の装置のような1つ以上のコンピュータによって実行されるように記述することができる。当業者であれば、コンピュータシステムがデータ通信に使用できる様々な構成およびプロトコルを有しており、したがって、特定の構成またはプロトコルは限定要素とはみなされないことが理解できるであろう。
したがって、図9は、本明細書に記載される実施形態の1つまたは複数の態様を実施することができる適切な計算システム環境900の例を示す。既に明記した如く、計算システム環境900は、適切な計算環境の1つの例に過ぎず、使用範囲または機能性に関するいかなる制限も提示することを意図していない。さらに、計算システム環境900は、例示的な計算システム環境900に示されている構成要素のいずれか1つまたはその組合せに対するいかなる依存関係も持つものとして解釈されるものではない。
図9を参照すると、1つ以上の実施形態を実現するための例示的な装置は、コンピュータ910の形態の汎用計算機を含む。コンピュータ910の構成要素は、処理ユニット920、システムメモリ930、およびシステムメモリから処理ユニット920を含む種々のシステム構成要素と接続するシステムバス922を含むが、これらに限定されない。
コンピュータ910は、典型的には、様々なコンピュータ読取可能媒体を含み、コンピュータ910によってアクセス可能な任意の利用可能な媒体であり得る。システムメモリ930は、Read-Only Memory(ROM)および/またはRandom-Access Memory(RAM)のような揮発性及び/または不揮発性メモリの様式のコンピュータ記憶媒体を含んでもよい。限定ではなく例として、システムメモリ930は、オペレーティングシステム、アプリケーションプログラム、その他プログラムモジュール、およびプログラムデータを含んでもよい。さらなる例によれば、コンピュータ910は、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、コンパクトディスクROM、ディジタル汎用ディスクもしくは他の光ディスク記憶装置、または所望の情報を記憶するために使用できる他の有形および/もしくは非一時的媒体を含むことが可能な、図示しない様々な他の媒体も含むことができる。
使用者は、入力装置940を介してコンピュータ910にコマンドおよび情報を入力することができる。モニタまたは他のタイプのディスプレイ装置も、出力インターフェース950等のインターフェースを介してシステムバス922に接続される。モニタに加え、コンピュータは、出力インターフェース950を介して接続可能な、スピーカやプリンタといった他の周辺出力装置も含むことができる。
コンピュータ910は、リモートコンピュータ970のような1つ以上の他のリモートコンピュータと論理接続されたネットワーク環境または分散環境において動作するように、ネットワークインターフェース960を含んでもよい。リモートコンピュータ970は、パーソナルコンピュータ、サーバ、ルータ、ネットワークPC、ピアデバイスまたは他の共通ネットワークノード、あるいは他の任意のリモートメディア消費(remote media consumption)または伝送デバイスであってもよく、さらには、コンピュータ910に関して上述した要素のいずれかまたはすべてを含んでもよい。図9に示す論理接続は、ローカルエリアネットワーク(LAN)またはワイドエリアネットワーク(WAN)のようなネットワーク971を含むが、他のネットワーク/バスを含んでもよい。このようなネットワーク環境は、家庭、オフィス、企業規模のコンピュータ・ネットワーク、イントラネットおよびインターネットにおいて一般的である。
上述したように、種々のコンピュータ装置およびネットワークアーキテクチャに関連して例示的な実施形態を説明したが、基礎となる概念は、画像融合システムを実施することが望ましいあらゆるネットワークシステムおよびあらゆる計算装置または計算システムに適用することができる。
また、同一または類似の機能を実装する方法は複数ある。例えば、本明細書に提供される技術を利用可能なアプリケーションおよびサービス、すなわち、適切なAPI、ツールキット、ドライバコード、オペレーティングシステム、制御、独立のまたはダウンロード可能なソフトウェアオブジェクト等である。したがって、本明細書では、API(または他のソフトウェアオブジェクト)の観点、ならびに、本明細書に記載される1つ以上の実施形態を実施するソフトウェアまたはハードウェアオブジェクトから、実施例が意図される。したがって、本明細書に記載される種々の実施形態は、全体がハードウェアである態様、部分的にハードウェアである態様、部分的にソフトウェアである態様、およびソフトウェアである態様を有することができる。
本明細書で使用されるように、用語「or」は、排他的な「or」ではなく、包括的な「or」を意味することを意図している。すなわち、特に明記されない限り、または文脈から明確でない限り、「Xは、AまたはBを使用する」という語句は、通常の包括的な置換すべてを意味することを意図している。すなわち、「Xは、AまたはBを使用する」という語句は、次のいずれの事例も満たす:Xは、Aを使用する。Xは、Bを使用する。Xは、AおよびBの両方を使用する。さらに、本願で使用される冠詞「a」および「an」は、特に明記されない限り、または文脈から特定されない限り、単数形に向けられるべき「1つ以上」を意味すると解釈されるべきである。
さらに、本明細書で使用される「例示的」という用語は、「何かの説明または例としての役割を果たす」ことを意味することを意図している。
上記に、例示的な実施形態を説明した。上記の装置および方法は、クレームされた主題の一般的な範囲から逸脱することなく、変更および修正を組み込むことができることは、当業者に明らかであろう。これは、クレームされた主題事項の範囲内で、そのようなすべての修正および置換を含むことが意図されている。さらに、「包含する」という用語は、詳細な説明または請求項のいずれかで使用されている限りにおいて、請求項の移行語(transitional word)として「備える」という用語が用いられる際の解釈と同様に、包括的なものとして意図されている。

Claims (24)

  1. コンピュータで実行可能な命令を記憶する記憶装置(208)に接続されたプロセッサ(202)を備えるシステム(100)であって、
    前記プロセッサ(202)により前記命令が実行されると、前記プロセッサ(202)は、
    第1モダリティの第1画像(316)内の特徴を示す特徴情報(318)を取得し、
    第2モダリティの画像(322)を生成する手持ち式撮像装置(120)の位置および方向を識別する空間トラッカー(130)から、少なくとも3自由度を持つトラッキング情報(320)を取得し、かつ、
    前記撮像装置(120)の姿勢が、前記特徴情報(318)または前記トラッキング情報(320)の少なくとも1つに基づいて、前記特徴の基準姿勢と一致する姿勢を有する特徴の第2画像(322)を生成するのに適した所定の姿勢と一致するときを判断する、システム。
  2. 前記プロセッサ(202)は、前記撮像装置(120)の移動に応じて、前記トラッキング情報(320)または前記特徴情報(318)の少なくとも1つに基づいて前記撮像装置(120)によって生成された前記第2画像(322)内の特徴の姿勢の指標を更新する、請求項1に記載のシステム。
  3. 前記プロセッサ(202)は、空間における前記撮像装置(120)の姿勢と前記撮像装置(120)の撮像面の姿勢との間の関係を取得し、前記関係に基づいて、前記第2画像(322)における前記特徴の姿勢の指標を更新する、請求項2に記載のシステム。
  4. 前記プロセッサ(202)は、前記特徴の姿勢の指標を更新するために、仮想撮像面に沿って第1画像(316)を再分割する、請求項2に記載のシステム。
  5. 前記プロセッサ(202)は、前記トラッキング情報(320)に基づいて前記仮想撮像面を決定する、請求項4に記載のシステム。
  6. 前記プロセッサ(202)は、前記仮想撮像面に対応する前記第1画像の画像データ(316)を補間する、請求項4に記載のシステム。
  7. 前記プロセッサ(202)は、前記第1画像(316)と前記第2画像(322)との間の変換を識別する、請求項1に記載のシステム。
  8. 前記プロセッサ(202)は、前記識別された特徴の位置を更新するために、前記特徴情報(318)に前記変換を適用する、請求項7に記載のシステム。
  9. 前記特徴情報(318)は、前記第1画像(316)内の前記特徴の輪郭を含む、請求項1に記載のシステム。
  10. 前記特徴情報(318)は、前記撮像装置(120)の所定方向に対する前記第1画像(316)内の前記特徴の方向を特定する、請求項1に記載のシステム。
  11. 前記プロセッサ(202)は、前記撮像装置(120)から取得したライブ画像(322)を表示し、前記特徴情報(318)に基づいて前記ライブ画像上にオーバレイを表示する、請求項1に記載のシステム。
  12. 前記プロセッサ(202)は、前記撮像装置(120)から取得したライブ画像(322)を表示し、前記特徴情報(318)に基づいて前記ライブ画像(322)上にオーバレイを表示し、前記撮像装置(120)によって取得された前記第2画像(322)上の前記特徴の姿勢の指標に基づいて前記オーバレイを更新する、請求項2に記載のシステム。
  13. 撮像装置から第1モダリティのライブ画像を取得するステップ(500)と、
    前記撮像装置の位置および方向を示す空間トラッカーからトラッキング情報を取得するステップ(506)と、
    前記ライブ画像において、前記撮像装置が特徴に対して所望の姿勢にあるときを判断し、前記撮像装置の姿勢と第2モダリティの第2画像内の特徴の姿勢との間の関係を確立するステップ(504)と、を含む方法であって、
    前記撮像装置が前記所望の姿勢にあることを判断するステップは、前記トラッキング情報と、第2画像内の前記特徴の姿勢を示す特徴情報とのうちの少なくとも1つに基づいて行う、方法。
  14. さらに、前記トラッキング情報または前記確立された関係のうちの少なくとも1つに基づき、前記撮像装置の移動に応じて、前記ライブ画像内の前記特徴の指標を更新(508)するステップを含む、請求項13に記載の方法。
  15. 前記特徴の指標は、前記特徴に対する前記撮像装置の所望の姿勢に関して、前記第2画像内の前記特徴の姿勢を示す特徴情報に基づいて、最初に生成される、請求項14に記載の方法。
  16. 前記特徴情報は輪郭である、請求項13に記載の方法。
  17. 前記特徴の指標を更新するステップは、仮想撮像面に沿って前記第2画像を再分割するステップ(406)をさらに含み、前記仮想撮像面は、前記トラッキング情報に基づいて決定される、請求項14に記載の方法。
  18. 前記再分割するステップは、前記仮想撮像面に対応する前記第2画像の画像データを補間するステップをさらに含む、請求項17に記載の方法。
  19. 前記特徴の指標を更新するステップは、前記撮像装置の所望の姿勢と、前記トラッキング情報により提供される前記撮像装置の位置および方向との間の変換を判断するステップと、前記変換を前記特徴の指標に適用するステップと、をさらに含む、請求項14に記載の方法。
  20. コンピュータで読取可能な命令を記憶するコンピュータ読取可能記憶媒体(208)であって、前記命令は、プロセッサ(202)により、
    第1モダリティの第1画像の特徴と、第2モダリティの画像を生成する撮像装置の所望の姿勢に対する前記第1画像内の前記特徴の姿勢とを示す特徴情報を取得し、
    少なくとも3自由度を有する空間内の前記撮像装置の位置および方向を追跡する空間トラッカーからトラッキング情報を取得し、
    前記撮像装置により生成されるライブ画像と、前記特徴情報と、または前記トラッキング情報のうちの少なくとも1つに基づいて、前記撮像装置が前記所望の姿勢とアライメントされたときを判断する、コンピュータ読取可能な記憶媒体(208)。
  21. 前記トラッキング情報または前記特徴情報の少なくとも1つに基づいて、前記ライブ画像内の特徴の指標を更新するように前記プロセッサ(202)を構成する命令を記憶する、請求項20に記載のコンピュータ読取可能記憶媒体(208)。
  22. 前記ライブ画像内の前記特徴の姿勢の初期指標を表示するように前記プロセッサ(202)を構成する命令をさらに記憶し、前記初期指標は、前記特徴情報に基づいて生成され、前記撮像装置を前記所望の姿勢にアライメントするためのガイドを提供する、請求項20に記載のコンピュータ読取可能記憶媒体(208)。
  23. 前記トラッキング情報に基づいて決定された仮想撮像面に沿って前記第1画像を再分割すると共に、前記仮想撮像面に沿って前記特徴情報を補間し、前記ライブ画像内に前記特徴の姿勢の更新された指標を生成するように前記プロセッサ(202)を構成する命令をさらに記憶する、請求項21に記載のコンピュータ読取可能記憶媒体(208)。
  24. 前記所望の姿勢と、前記トラッキング情報により提供される前記撮像装置の位置および方向との間の変換を決定し、前記変換を前記特徴情報に適用して、前記ライブ画像内の前記特徴の姿勢の指標を更新するように前記プロセッサ(202)を構成する命令をさらに記憶する、請求項21に記載のコンピュータ読取可能記憶媒体(208)。
JP2020511859A 2017-05-04 2018-05-04 予測融合システムと方法 Pending JP2020518937A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023129221A JP2023153209A (ja) 2017-05-04 2023-08-08 予測融合システム及び方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762501329P 2017-05-04 2017-05-04
US62/501,329 2017-05-04
PCT/US2018/031016 WO2018204740A1 (en) 2017-05-04 2018-05-04 System and method for predictive fusion

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023129221A Division JP2023153209A (ja) 2017-05-04 2023-08-08 予測融合システム及び方法

Publications (1)

Publication Number Publication Date
JP2020518937A true JP2020518937A (ja) 2020-06-25

Family

ID=62563267

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020511859A Pending JP2020518937A (ja) 2017-05-04 2018-05-04 予測融合システムと方法
JP2023129221A Pending JP2023153209A (ja) 2017-05-04 2023-08-08 予測融合システム及び方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023129221A Pending JP2023153209A (ja) 2017-05-04 2023-08-08 予測融合システム及び方法

Country Status (6)

Country Link
US (3) US10621737B2 (ja)
EP (1) EP3619683A1 (ja)
JP (2) JP2020518937A (ja)
CN (1) CN110892452A (ja)
CA (1) CA3062312C (ja)
WO (1) WO2018204740A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016028308A1 (en) * 2014-08-22 2016-02-25 Analogic Corporation Updating reference imaging data with update 2d and/or 3d imaging data
US10529088B2 (en) 2016-12-02 2020-01-07 Gabriel Fine Automatically determining orientation and position of medically invasive devices via image processing
CA3062312C (en) * 2017-05-04 2022-06-14 Mim Software, Inc. System and method for predictive fusion
US11361868B2 (en) * 2017-08-16 2022-06-14 The Johns Hopkins University Abnormal tissue detection via modal upstream data fusion
CN109948526B (zh) * 2019-03-18 2021-10-29 北京市商汤科技开发有限公司 图像处理方法及装置、检测设备及存储介质
CN112400122A (zh) * 2019-08-26 2021-02-23 北京航迹科技有限公司 定位目标对象的系统和方法
CN114714349B (zh) * 2022-03-23 2024-04-16 武汉库柏特科技有限公司 一种遥操作超声扫描机器人姿态测试方法、装置及设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004016268A (ja) * 2002-06-12 2004-01-22 Toshiba Corp 超音波診断装置、超音波プローブ、及び超音波診断におけるナビゲーション情報提供方法
WO2004098414A1 (ja) * 2003-05-08 2004-11-18 Hitachi Medical Corporation 超音波診断におけるリファレンス像表示方法及び超音波診断装置
JP2009273597A (ja) * 2008-05-13 2009-11-26 Canon Inc 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
JP2012245230A (ja) * 2011-05-30 2012-12-13 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム
US20130338477A1 (en) * 2012-06-14 2013-12-19 Neil Glossop System, method and device for prostate diagnosis and intervention
US20140193053A1 (en) * 2011-03-03 2014-07-10 Koninklijke Philips N.V. System and method for automated initialization and registration of navigation system
JP2016202351A (ja) * 2015-04-17 2016-12-08 健司 三木 医療支援システム、医療支援方法、画像処理装置およびその制御方法と制御プログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US7015950B1 (en) * 1999-05-11 2006-03-21 Pryor Timothy R Picture taking method and apparatus
KR100507780B1 (ko) * 2002-12-20 2005-08-17 한국전자통신연구원 고속 마커프리 모션 캡쳐 장치 및 방법
EP1977374A4 (en) * 2005-11-30 2012-09-05 Seeing Machines Pty Ltd VISUAL TRACKING OF GLASSES IN VISUAL HEAD AND EYE TRACKING SYSTEMS
US8781162B2 (en) * 2011-01-05 2014-07-15 Ailive Inc. Method and system for head tracking and pose estimation
NO327279B1 (no) * 2007-05-22 2009-06-02 Metaio Gmbh Kamerapositurestimeringsanordning og- fremgangsmate for foroket virkelighetsavbildning
WO2009086088A1 (en) * 2007-12-21 2009-07-09 Honda Motor Co., Ltd. Controlled human pose estimation from depth image streams
CN101952853B (zh) * 2008-01-16 2013-05-15 旭化成株式会社 脸姿势推定装置以及脸姿势推定方法
US8401239B2 (en) * 2009-03-30 2013-03-19 Mitsubishi Electric Research Laboratories, Inc. Object tracking with regressing particles
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
WO2013188598A2 (en) * 2012-06-12 2013-12-19 Trx Systems, Inc. Fusion of sensor and map data using constraint based optimization
KR101964861B1 (ko) * 2012-06-29 2019-04-02 삼성전자주식회사 카메라 장치 및 상기 카메라 장치에서의 물체 추적 방법
US9031283B2 (en) * 2012-07-12 2015-05-12 Qualcomm Incorporated Sensor-aided wide-area localization on mobile devices
US9558396B2 (en) * 2013-10-22 2017-01-31 Samsung Electronics Co., Ltd. Apparatuses and methods for face tracking based on calculated occlusion probabilities
WO2015101948A2 (en) * 2014-01-06 2015-07-09 Body Vision Medical Ltd. Surgical devices and methods of use thereof
US10326972B2 (en) * 2014-12-31 2019-06-18 Samsung Electronics Co., Ltd. Three-dimensional image generation method and apparatus
CA3010440A1 (en) * 2016-01-03 2017-07-06 Yosef Mintz System and methods to apply robust predictive traffic load balancing control and robust cooperative safe driving for smart cities
US10346464B2 (en) * 2016-09-27 2019-07-09 Canon Kabushiki Kaisha Cross-modiality image matching method
CA3062312C (en) * 2017-05-04 2022-06-14 Mim Software, Inc. System and method for predictive fusion
US11694345B2 (en) * 2019-11-07 2023-07-04 Seiko Epson Corporation Moving object tracking using object and scene trackers
US11682122B2 (en) * 2019-12-16 2023-06-20 Intellijoint Surgical Inc. Auto-tracker characterization with robotics applications

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004016268A (ja) * 2002-06-12 2004-01-22 Toshiba Corp 超音波診断装置、超音波プローブ、及び超音波診断におけるナビゲーション情報提供方法
WO2004098414A1 (ja) * 2003-05-08 2004-11-18 Hitachi Medical Corporation 超音波診断におけるリファレンス像表示方法及び超音波診断装置
JP2009273597A (ja) * 2008-05-13 2009-11-26 Canon Inc 位置合わせ処理装置、位置合わせ方法、プログラム、及び記憶媒体
US20140193053A1 (en) * 2011-03-03 2014-07-10 Koninklijke Philips N.V. System and method for automated initialization and registration of navigation system
JP2012245230A (ja) * 2011-05-30 2012-12-13 Ge Medical Systems Global Technology Co Llc 超音波診断装置及びその制御プログラム
US20130338477A1 (en) * 2012-06-14 2013-12-19 Neil Glossop System, method and device for prostate diagnosis and intervention
JP2016202351A (ja) * 2015-04-17 2016-12-08 健司 三木 医療支援システム、医療支援方法、画像処理装置およびその制御方法と制御プログラム

Also Published As

Publication number Publication date
CA3062312A1 (en) 2018-11-08
US20210074008A1 (en) 2021-03-11
US11580651B2 (en) 2023-02-14
US10621737B2 (en) 2020-04-14
CA3062312C (en) 2022-06-14
US20240062396A1 (en) 2024-02-22
CN110892452A (zh) 2020-03-17
EP3619683A1 (en) 2020-03-11
JP2023153209A (ja) 2023-10-17
US20180322643A1 (en) 2018-11-08
WO2018204740A1 (en) 2018-11-08

Similar Documents

Publication Publication Date Title
JP2020518937A (ja) 予測融合システムと方法
Prevost et al. 3D freehand ultrasound without external tracking using deep learning
EP3081184B1 (en) System and method for fused image based navigation with late marker placement
US9665936B2 (en) Systems and methods for see-through views of patients
RU2663649C2 (ru) Сегментация крупных объектов из нескольких трехмерных видов
US10675006B2 (en) Registration for multi-modality medical imaging fusion with narrow field of view
CN111292277B (zh) 超声融合成像方法及超声融合成像导航系统
WO2019179344A1 (zh) 基于多传感器信息融合的三维超声成像方法、装置、终端机机器可读存储介质
US20110066031A1 (en) Ultrasound system and method of performing measurement on three-dimensional ultrasound image
JP2007526066A (ja) 患者体内において医療器具をガイドするシステム
JP6644795B2 (ja) 解剖学的オブジェクトをセグメント化する超音波画像装置及び方法
EP3478209A1 (en) Intertial device tracking system and method of operation thereof
US20180360427A1 (en) Ultrasonic diagnostic apparatus and medical image processing apparatus
KR102056436B1 (ko) 의료용 네비게이션 시스템 및 그 방법
US20150157298A1 (en) Apparatus and method for combining three dimensional ultrasound images
WO2017038300A1 (ja) 超音波撮像装置、画像処理装置、及び方法
JP2023022123A (ja) ガイダンス信号の決定及び手持ち式超音波トランスデューサのためのガイダンスを提供するためのシステム
KR20100117698A (ko) 초음파 영상을 정렬시키는 초음파 시스템 및 방법
JP2010088699A (ja) 医療画像処理システム
Jayarathne et al. Robust, intrinsic tracking of a laparoscopic ultrasound probe for ultrasound-augmented laparoscopy
JP6643416B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5693412B2 (ja) 画像処理装置、画像処理方法
CN111292248B (zh) 超声融合成像方法及超声融合导航系统
JP7407831B2 (ja) 介入装置追跡
JP5182932B2 (ja) 超音波ボリュームデータ処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220906

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230411