JP6393698B2 - 3dイメージングシステムのためのデータ表示及び処理アルゴリズム - Google Patents

3dイメージングシステムのためのデータ表示及び処理アルゴリズム Download PDF

Info

Publication number
JP6393698B2
JP6393698B2 JP2015561872A JP2015561872A JP6393698B2 JP 6393698 B2 JP6393698 B2 JP 6393698B2 JP 2015561872 A JP2015561872 A JP 2015561872A JP 2015561872 A JP2015561872 A JP 2015561872A JP 6393698 B2 JP6393698 B2 JP 6393698B2
Authority
JP
Japan
Prior art keywords
imaging
representation
region
interest
solid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015561872A
Other languages
English (en)
Other versions
JP2016509889A5 (ja
JP2016509889A (ja
Inventor
コートニー,ブライアン
ウィットコム,ネイル
Original Assignee
コナヴィ メディカル インコーポレーテッド
コナヴィ メディカル インコーポレーテッド
サニーブルック リサーチ インスティチュート
サニーブルック リサーチ インスティチュート
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コナヴィ メディカル インコーポレーテッド, コナヴィ メディカル インコーポレーテッド, サニーブルック リサーチ インスティチュート, サニーブルック リサーチ インスティチュート filed Critical コナヴィ メディカル インコーポレーテッド
Publication of JP2016509889A publication Critical patent/JP2016509889A/ja
Publication of JP2016509889A5 publication Critical patent/JP2016509889A5/ja
Application granted granted Critical
Publication of JP6393698B2 publication Critical patent/JP6393698B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Description

本発明は、包括的には、超音波及び光干渉断層法による最小侵襲イメージングを含む哺乳類の組織及び構造のイメージングのためのイメージングプローブの分野に関する。詳しくは、本発明は、3Dイメージングプローブを用いて収集されたデータを処理及び/又は表示する(アルゴリズムとして表される)方法に関する。
人体のイメージングは、1)組織構造及び解剖学的組織の評価、2)人体の局所的な領域におけるインターベンションの計画及び/又は誘導、並びに3)局所的な領域の構造、構成又は他の特性を変更するインターベンションの結果の評価の全てを含む複数の目的のために行われる。超音波及び光イメージング技術は、血管内及び心臓内処置を含む様々な最小侵襲アプリケーションにとって非常に有用である。例えば、最小侵襲超音波の2つの特に重要な具体例は、血管をイメージングするための血管内超音波(intravascular ultrasound:IVUS)と、心室をイメージングするための心臓内心エコー検査法(intracardiac echocardiographyICE)である。ICEとIVUSは、侵襲が最小であり、1つ以上の超音波トランスデューサを血管又は心室内に配置して、これらの構造の高品質画像を撮像する。
医療の分野で使用される光ファイバ技術に基づく光学イメージング法は、光干渉断層法、血管顕微法、近赤外分光法、ラマン分光法と蛍光分光法を含む。
イメージングプローブは、機械的走査メカニズムを用いて構成することができ、イメージを生成するために用いられるエネルギビームの方向は、イメージングエネルギの出射及び/又は感知を担う1つ以上の構成要素の機械的動きによって決定される。イメージングプローブは、様々な光学イメージングデバイス、例えば血管内視鏡、内視鏡及び喉頭鏡で使用されるフェイズドアレイ超音波イメージングプローブ及び光ファイバーバンドル又は電荷結合素子等のイメージング要素のアレイを用いて構築することもできる。
3D走査機構の具体例は、米国特許第8,214,010号(Courtney他、「Scanning mechanisms for imaging probe」)に開示されており、この文献は全体が引用によって本願に援用される。
3D最小侵襲イメージングが適用される領域は、器質的心疾患の処置及び電気生理学的処置のための画像誘導を含む。例えば、デバイス(例えば、卵円孔開存閉鎖デバイス、弁修復又は交換デバイス、左心耳閉鎖デバイス)の移植、又は治療用カテーテル(例えば、アブレーション又は寒冷療法カテーテル)の配置等、治療的な操作を行うために心室内の特定の位置にカテーテルを配置することが必要となることも多くある。また、例えば、心臓の心房中隔を横切る際等の処置の中間的ステップを誘導する必要があることもある。最小侵襲イメージングを使用することによって、これらのステップを補助することができる。このような目的のための技術の1つとして、3D心臓内エコー(3D intracardiac echo:3D ICE)がある。
従来技術の概要
Suorsa他(米国特許第6,315,732号)は、ケーブルシステムによってカテーテルの長軸以外の軸を巡って回転でき、3D画像を収集できる超音波トランスデューサを有する血管内送達のためのカテーテルを開示している。
Maroney他(米国特許第5,373,849号)、及びGardineer(米国特許第5,373,845号)も3D超音波イメージングカテーテルを開示している。
Hossack他(WO/2006/121851)は、容量性微細加工超音波トランスデューサ(capacitive micromachined ultrasound transducer:CMUT)及び反射表面を用いる前方視超音波トランスデューサを開示している。
Courtney他(米国特許第8,214,010号)は、機械的な走査を行う単一要素イメージングデバイスを用いた3D走査機構を開示しており、これを用いて、超音波及び/又は光学イメージング法によって3Dイメージングデータの組を生成することができる。ここに開示されている機械的デバイスは、典型的な2Dアレイイメージングデバイスが通常有する視野より大きな視野をイメージングできるという利点がある。これは、特に超音波イメージングの場合に成立する。ここに開示されているデバイスによって収集されるイメージングデータの組は、球面座標及び/又はデカルト座標で記述することができる。Courtney他の米国特許第8,214,010号に開示されている走査機構は、球面座標でデータを収集し、立体的イメージングデータの組は、(「r」,「シータ」(θ),「ファイ」(φ))の関数で記述でき、ここで、「r」は半径であり、「シータ」(θ)は回転軸を巡る回転角度であり、「ファイ」(φ)は傾きの角度である。米国特許第8,214,010号の幾つかの実施形態では、イメージングされる立体は、以下のように走査される。
1)イメージングされる領域における超音波又は光の飛行時間に基づいて半径「r」を算出する。幾つかの実施形態においては、「r」は、球面座標系のうち最も高い頻度で走査又はイメージングされる次元である。
2)角度「シータ」(θ)は、イメージングアセンブリの回転軸を巡るイメージングアセンブリの回転角度に基づく。多くの実施形態において、角度「シータ」(θ)は、イメージングアセンブリに機械的に連結された回転シャフトに機械的に連結された回転駆動機構の回転運動に起因する角変位を表す。幾つかの実施形態において、角度「シータ」(θ)は、球面座標系において、2番目に高い頻度で走査される次元である。他の実施形態においては、角度「シータ」(θ)は、球面座標系において、最も低い頻度で走査される次元である。
3)角度「ファイ」(φ)は、米国特許第8,214,010号では、「イメージング角度」とも呼ばれる。幾つかの実施形態では、角度「ファイ」(φ)は、球面座標系において、最も低い頻度で走査される次元である。他の実施形態においては、角度「ファイ」(φ)は、球面座標系において、2番目に高い頻度で走査される次元である。
最小侵襲イメージングのコンテキストでは、米国特許第8,214,010号に開示されている走査機構の幾つかの実施形態の利点は、潜在的に視野が広いことを含み、ここで、半径「r」は、数百ミクロンから10センチメートル以上の範囲に亘り、角度「シータ」(θ)は、0から360度(通常、繰り返しパターン)に亘り、「ファイ」(φ)は、幅広い角度の範囲に亘り、多くの前方視の実施形態では、0から90度以上に亘ることができる。他の利点は、3Dイメージングを実行する能力を含む。他の更なる利点は、鼓動する心臓の領域等の動的構造の繰返し運動を捕捉するECGゲーティングを含むゲーティング技術を用いて4Dイメージングを実行する能力を含む。
例えば、心臓の鼓動等の動きを伴う構造に関しては、幾何学的精度及び/又は画質は、このような構造の動きの速度に対する構造のイメージングの速度に依存する。例えば、2Dイメージングにおいて、画像のリフレッシュレートが高い程、2D画像内の測定の幾何学的精度が向上する。同様に、3Dイメージングでは、イメージングされる構造の領域の再構築は、例えば、ECGゲーティング(ECG gating)等の適切な動き補償アルゴリズムを使用しない限り、このような領域をより短いタイムスパンでイメージングした方が動きによる影響が小さくなる。
本発明は、超音波及び/又は光学的イメージング技術を含む最小侵襲イメージングプローブを用いて取得される哺乳類の組織及び構造の画像を3D再構築する表示手段を提供する。具体的には、本発明は、2つの角度及び線形次元に亘る走査、サンプリング及び/又は他のデータ収集によってデータを収集する走査機構を用いて収集された画像の表示方法に関する。
米国特許第8,214,010号に開示されている走査機構の幾つかの実施形態では、走査速度が半径方向で最速であり、第1の角方向「シータ」(θ)に沿う走査速度は、これより遅く、第2の角方向「ファイ」(φ)に沿った走査速度が更に遅いことを踏まえ、本発明は、走査の頻度が高い(したがって、動きアーチファクトが生じにくい)2つの次元、多くの場合、半径「r」及び角度「シータ」(θ)で収集された3Dイメージングデータのサブセットを表現する画像表示方法を提供する。
また、本発明は、3Dイメージングデータの全体又は一部の3D再構築と組み合わせて、最も高い頻度で走査される次元で収集された3Dイメージングデータのサブセットを表示する画像表示方法を提供する。
本発明は、3D再構築に重畳されるテクスチャマップの領域を特定する方法を開示し、テクスチャマップは、より透明に生成でき、2D画像テクスチャがマッピングされる表面の背後になる3D再構築の内部の構造の視覚化を容易にすることができる。
更に、本発明は、オペレータが3D再構築の角度「ファイ」(φ)のサブセットの範囲を掃引する方法を提供する。
本発明は、3Dイメージングデータを処理して、イメージング方式に対して比較的透明である3Dイメージングデータの領域を視覚化する画像表示方法、例えば、超音波を用いて、血液が心筋及び他の心臓組織より比較的透明である心室又は脈管を視覚化する画像表示方法を提供する。このような方法は、例えば、他の周囲の構造の形態及び/又は構造に比べて、心室及び/又は血管の形態及び/又は構造にオペレータがより高い関心を有している状況等で有用である。
また、本発明は、3D立体の3D再構築を表示し及び3D立体のサブセットの再構築をより高い頻度で更新して表示する方法を開示する。例えば、これによって、より大きい3D立体からのコンテキスト情報の組合せを提供できるとともに、より高い頻度で更新される3D立体のサブセット内で時間分解能が高いイメージング情報を提供できる。
更に、本発明は、3D立体のサブセットがイメージングされたある期間の後、コンテキスト3D立体が、より高い頻度で走査される3D立体のサブセットの周囲の領域を十分適切に表現しなくなったことを判定し、コンテキスト3D立体をいつ更新するかをパラメータ的に決定する方法を開示する。このような判定は、周囲の構造の変化の結果、及び/又は周囲の構造の動き及び/又は周囲の構造内のイメージングプローブの変位又は他の理由に基づいて行ってもよい。
また、本発明は、時間的により前に取得した3D立体の部分を、より最近に取得した3D立体の部分とは異なることが視覚的に認識できるフォーマットで表示する方法を開示し、これによって、オペレータは、3D立体のどの部分が最も近い時点で更新されているか、したがって、画像表示の時点で最も代表的な領域を認識しながら3D立体内の解剖学的目印及び他の構造を特定することができる。
本発明は、イメージングシステム及びイメージングプローブの3Dイメージング能力を用いて3D立体内のイメージングプローブの部分の位置及び/又は向きを特定する手法を開示する。
本発明は、位置特定アルゴリズムと組み合わせてイメージングシステム及びイメージングプローブのイメージング能力を用いて、以前にイメージングされた3D立体内のイメージングプローブの部分の位置及び/又は向きを更新する手法を開示する。
本発明は、位置特定アルゴリズムと組み合わせてイメージングシステム及びイメージングプローブのイメージング能力を用いて、先に取得した3D立体内でのイメージングプローブの部分の位置及び/又は向きが、いつ、許容できる信頼度で判定できなくなるかを判定する。
一実施形態として提供する方法は、立体の立体表現のイメージングデータの組及び単一の2Dイメージングフレームから立体の合成視覚表示を生成する方法において、
a)立体から一組のイメージングデータを受け取るステップと、
b)イメージングデータの組から単一の2Dイメージングフレームを選択するステップと、
c)イメージングデータの組を処理して、単一の2Dイメージングフレームの選択された側にある全ての画像データが立体表現から除外されるように変更された立体表現を生成するステップと、
d)2Dイメージングフレームを変更された立体表現上の適切な箇所にマッピングするステップとを有する。
更に提供される方法は、複数の立体画像データの組から合成視覚表示を生成する方法において、
a)機械的な走査を行うイメージングデバイスを用いて第1の期間に亘って取得された第1の立体の第1の立体画像データの組を受信し、第1の立体画像データを処理して第1の立体の表現を再構築するステップと、
b)第1の立体内で関心領域を定義するステップと、
c)第1の期間より短い第2の期間に亘って取得された関心領域の更なる画像データの組を受信するステップと、
d)関心領域の更なる画像データの組を第1の立体画像データの組に結合し、結合画像データの組を生成し、結合画像データの組を処理して第1の立体の結合表現を再構築し、結合表現を表示するステップを有し、第1の立体の関心領域部分の表現は、第1の立体の他の部分に比べて、より高い頻度で更新され、
e)更に、ステップb)乃至ステップd)を0回以上繰り返すステップを有する。
更に提供される方法は、立体の複数の画像の取得の間にイメージングデバイスの位置及び/又は向きの変化を算出する方法において、
a)イメージングデバイスによって第1の期間に亘って取得された第1の立体からのイメージングデータの第1の組を受信するステップと、
b)第1の立体からイメージングデータの第1の組を処理して、表示に適する第1の立体の表現を再構築するステップと、
c)イメージングデバイスによって第1の期間より短い更なる期間に亘って取得された更なる立体からのイメージングデータの更なる組を受信するステップと、
d)イメージングデータの更なる組を処理して、更なる立体の表現を再構築するステップと、
e)第1の立体の表現及び更なる立体の表現を処理し、第1の立体の表現を更なる立体の表現に位置合わせし、位置合わせされた表現の整合の度合いを判定するステップと、
f)許容可能な整合の度合いが達成された場合、イメージングデータの第1の組の取得の間のイメージングデバイスの位置及び/又は向きに対するイメージングデータの更なる組の取得の間のイメージングデバイスの位置及び/又は向きを算出し、ステップc)乃至ステップe)を0回以上繰り返すステップと、
g)位置合わせが達成されなかった場合、ステップa)乃至ステップe)を0回以上繰り返すステップとを有する。
更に提供される方法は、立体の複数の走査の間に立体内の領域を特定及び強調する方法において、
a)第1の立体の画像の組を取得し、画像の組から第1の立体の3D表現を生成するステップと、
b)第1の立体の3D表現内の関心領域を特定するステップと、
c)関心領域を一組のパラメータによって特徴付け、特徴付けられた領域の一組のパラメータを保存するステップと、
d)特徴付けられた関心領域に視覚的キューを適用するステップと、
e)更なる立体の更なる画像の組を取得し、更なる画像の組から更なる立体の3D表現を生成するステップと、
f)特徴付けられた関心領域のパラメータの保存された組を用いて更なる画像の組を検索し、更なる立体内で関心領域の存在を特定するステップと、
g)更なる立体内で関心領域が特定された場合には、ステップc)で保存したパラメータの組を任意に更新し、ステップd)乃至ステップf)を0回以上繰り返すステップと、
h)更なる立体内で関心領域が特定されない場合には、ステップa)乃至ステップg)を0回以上繰り返すステップとを有する。
本発明の機能及び有利な側面は、以下の詳細な説明及び図面を参照することによって更に明らかとなる。
以下、例示のみを目的として、以下の図面を参照して、本発明の実施形態を説明する。
本発明の実施形態に関連する例示的な球面座標系を示す図である。 本発明の球面座標系を使用して記述される画像フレームと連続するイメージングデータの関係を表す図である。 本発明の実施形態に関連する例示的な円筒座標系の例を示す図である 本発明の可能な構成の3本の取得軸の間の時間的関係を示す図である。 本発明の他の可能な構成の3本の取得軸の間の時間的関係を示す図である。 角度「シータ」(θ)の単一の回転からのイメージングデータの処理の例を示す図である。 円錐状の表面へのイメージングデータのマッピングを示す図である。 本発明に基づく立体データ及び円錐表面の視覚化の実施形態を示す図である。 前方視が可能な本発明を組み込むことができるイメージングシステムの例を示す図である。 前方視が可能な本発明を組み込むことができるイメージングシステムの例を示す図である。 本発明に基づく立体データ及び円錐表面の視覚化の実施形態を示す図である。 円筒の長軸に沿って円筒立体空間を離散的動作でイメージングすることができるイメージングシステムの例を示す図である。 は、円筒の長軸に沿って円筒立体空間を連続的動作でイメージングすることができるイメージングシステムの例を示す図である。 本発明を組み込むことができるイメージングシステムの一実施形態の走査の間に取得される立体画像範囲を表す図である。 領域をマスキングし、円錐表面を介する透明な視覚化を実現するイメージングデータの例を示す図である。 立体のサブセットが立体の他の部分より高い頻度で更新される立体画像データの視覚化の例を示す図である。 立体のサブセットが立体の他の部分より高い頻度で更新される立体画像データの視覚化の例を示す図である。 立体のサブセットが立体の他の部分より高い頻度で更新される立体画像データの視覚化の例を示す図である。 立体のサブセットが立体の他の部分より高い頻度で更新される立体画像データの視覚化の例を示す図である。 立体のサブセットが立体の他の部分より高い頻度で更新される立体画像データの視覚化の例を示す図である。 立体のサブセットが立体の他の部分より高い頻度で更新される立体画像データの視覚化の例を示す図である。 高い頻度で取得される画像データを静的3D立体表現に組み合わせる視覚化表現を生成するための主要な動作を強調して示すフローチャートである。 高密度静的立体及び低密度動的立体を用いた立体位置合わせの実施形態を示す図である。 高密度静的立体及び低密度動的立体を用いた立体位置合わせの実施形態を示す図である。 高密度静的立体及び低密度動的立体を用いた立体位置合わせの実施形態を示す図である。 低密度−高密度立体位置合わせの実施形態で行われる動作を強調して示すフローチャートである。 可能性が高い位置及び向き情報を推定するために使用できる例示的な方法のフローチャートである。 4D再構築における後のフレームにおいてオペレータが特定した立体サブ領域を追跡する例示的な実施形態において採用される主要な動作を強調して示すフローチャートである。 超音波イメージング、光学イメージング又はその両方のためのイメージングシステムの概略図である。 ここに開示する計画及び誘導方法及びシステムを実現するコンピュータ制御システムの典型的な非限定的な具体例を示す図である。
以下、本発明の実施形態及び側面について、詳細を参照して説明する。以下の説明及び図面は、本発明を例示するものであり、限定するものではない。本明細書の様々な実施形態を明瞭に説明するために、多くの特定の詳細事項について記述する。但し、幾つかの例では、本発明の実施形態を明瞭にするために、周知の又は従来から知られている詳細については記述しない。
ここで使用する「備える」、「有する」、「含む」等の表現は、排他的ではなく、包括的で非限定的な表現として解釈される。具体的には、本明細書及び特許請求の範囲において用いられる「備える」、「有する」、「含む」等及びこれらの活用形は、特定の特徴、ステップ又は要素が含まれることを意味する。これらの表現は、他の特徴、ステップ又は要素の存在を除外するようには解釈されない。
ここで用いる「例示的な」という用語は、「具体例、例証又は例示に使用される」ことを意味し、他の構成に比べて好ましい又は有利であるということは意味しない。
ここで用いる「約」、「略々」等の用語は、特性、パラメータ及び寸法等に関連して用いられる場合、数値の上限及び下限における僅かな差異が許容されることを意味する。1つの非限定的な例として、「約」及び「略々」の用語は、±10%以内を意味する。
ここで使用する「画像の相互位置合わせ(co-registration)」という句は、一組のイメージングパラメータによって取得されるイメージングデータのサブセットを、他の組のイメージングパラメータ(すなわち様式、時間、空間的位置、イメージング条件等)を用いて取得されるイメージングデータのサブセットと共に特定する処理を指し、イメージングパラメータの2つの組から特定されるイメージングデータは、同じ物体(すなわち組織、デバイス又は他の関心構造)からイメージングエネルギ(例えば、光子又は超音波)の1つ以上の形状を検出することによって取得される。そして、第1のサブセット内の相互位置合わせされた各点は、第2のサブセット内の対応する点にマッピングでき、これによって、2つの点は、イメージングされた物体(又は組織)の同様な焦点領域から取得したとみなされる。イメージングパラメータの複数の組の間で画像又は画像の一部の相互位置合わせが正確に行われると、イメージングされた物体の関心特徴を、一組以上のイメージングパラメータによって評価する複数の機会が提供される。
ここに説明する様々な実施形態は、超音波イメージング、光学イメージング又はこれらの両方のイメージングシステムに関する。まず、図16に示すイメージングシステム100は、イメージングプローブ107を備え、イメージングプローブ107は、患者インタフェースモジュール102を介して、画像処理及び表示システム111に接続されている。画像処理及び表示システム111は、例えば、超音波、光干渉断層法、血管顕微法、赤外線イメージング、近赤外線イメージング、ラマン分光法ベースのイメージング又は蛍光イメージング等の1つ以上のイメージング様式をサポートするハードウェアを備える。
クリッピングされた立体合成表示へのテクスチャマッピング
図1は、イメージングアセンブリ1を用いて立体から取得される一組のイメージングデータを記述するために用いることができる球面座標系を表している。例えば、「r」に沿って収集された一連の心臓内エコー(intracardiac echo:ICE)データサンプルは、それぞれが超音波データの固有のサンプリングに対応するN個の固有の画素(ピクセル)の1次元画像として表現できる。「r」の空間長は、イメージトランスデューサのイメージング深さに対応し、したがって、均一なサンプリングの場合、画素間隔をr/Nと定義してもよい。連続する1Dイメージングデータベクトルは、イメージングアセンブリが回転軸2を中心として動くことによって取得される(「シータ」(θ)によって測定される)。図2は、回転角度「シータ」(θ)を増加させながら連続して取得された1Dイメージングデータベクトル3の集合を表している。実施形態では、この構成を2次元画像5として取り扱い、「r」軸2に沿う画素は、イメージングアセンブリからの距離が増加する方向のイメージングデータサンプルを表し、θ軸115に沿う画素は、イメージングアセンブリの回転軸を中心とする角度が大きくなる方向のイメージングデータサンプルを表す。
イメージングデータのこの連続的な集合及び構成により、幅が増加し続ける画素マトリクスが生成される。この表現は、最も古いサンプルベクトルが図2の左端に位置し、最も新しいサンプルベクトルが右端に追加され続ける時間的構成としても適切に記述することができる。なお、θ軸115(「シータ」)は、必ずしも時間と線形の関係を有する必要はなく、例えば、イメージングビームの傾斜角(図1では「ファイ」(φ)として表現される。)を変更することによって、回転速度が時間とともに変化してもよい。実際的な実施形態では、取得したサンプルの大きな2次元のアレイは、イメージングアセンブリの完全な回転に一致するイメージングフレーム4に分割してもよい(「シータ」(θ)は、0から2πラジアンの範囲をとる)。単一の2Dイメージングフレームにおいて、必ずしも、傾斜角「ファイ」(φ)を固定する必要はない。
図3は、図1において「ファイ」(φ)によって表されている傾斜自由度がなくなり、長手方向の自由度dが追加されたイメージングアセンブリ6の別の構成を示している。この場合も、イメージングデータは、イメージングアセンブリが軸7を中心に(「シータ」(θ)として表される角度で)回転しながら、及びアセンブリの全体が軸7に沿って(「d」として表される対応する距離だけ)平行移動する間にベクトル「r」に沿って収集され、この結果、円筒状の立体からのイメージングデータの集合が得られる。なお、軸7は、直線として示しているが、柔軟なイメージングカテーテルの場合、血管内イメージング及びプルバック撮像(pullback acquisition)において一般的なように、軸7は、曲線の経路であってもよい。
図4は、多くの実施形態の特徴である3個のイメージング軸の各々に沿ったデータ取得間の相対的な時間的関係を表している。放射軸「r」に沿った取得が最も速く、次に長軸「シータ」(θ)を軸とする取得が続き、次に傾斜軸「ファイ」(φ)を軸とする取得が続き、これが、通常、最も遅い。
図5は、通常、長軸「d」に沿ったデータの収集が最も遅い図3に表した構成に類似した時間的関係を表している。
イメージング角度「ファイ」(φ)を組み込むことによって、2D画像データのフレーム8を、イメージングアセンブリによって出射及び/又は受信されるエネルギビームの物理的な伝播経路を反映する3次元的手法で表示できる。図7Bは、幾つかの「ファイ」(φ)の固定角度を中心とする回転による伝播経路を示しており、図7Cは、傾斜角が滑らかに変化する場合の取得の間の伝播経路を示している。図6Aは、角度「ファイ」(φ)を一定としたまま、可能な「シータ」(θ)の値の範囲をカバーするイメージングアセンブリの単一の回転によって取得される2D画像フレームを表している。図6Bは、取得した同じイメージングデータフレーム8を用いて、回転角度「シータ」(θ)及び固定された傾斜角「ファイ」(φ)の視覚的表示を提供する可能な実施形態を表している。この表現では、2Dイメージングデータフレームは、イメージングデバイスによる取得の間に立体内でサンプリングされた領域を表す(「r」、「シータ」(θ)及び「ファイ」(φ)によって定義される)円錐形状のワイヤーフレームにマッピングされている。
米国特許第8,214,010号は、球面座標次元「r」、「シータ」(θ)及び「ファイ」(φ)の範囲に亘る空間範囲で取得した画像データが3D立体表現に再構築される可能な実施形態を開示している。本発明の幾つかの実施形態は、2Dイメージングデータフレームのテクスチャマッピングを組み込んだイメージングデータの組の合成立体表現(composite volumetric representation)を生成することによって、3D再構築のためのこれらの視覚化の実施形態を拡張する。本発明の他の実施形態は、図3に示すイメージングアセンブリを用いて取得された画像データの組の3D再構築を表現する手段を組み込む。
図8Aは、イメージングアセンブリ6を長軸7に沿って引きながら行われる画像データの取得を表している。トランスデューサの角度は、通常、長軸7に対して90度に近い角度「ファイ」(φ)で固定される(但し、必要条件ではない)。このような軌跡に沿って取得されるデータの再構築された立体表現は、円筒状の立体内に収まる。この場合、データは、長軸7に沿う一定のインクリメントによって得られる。イメージングアセンブリ6が長軸7に沿って移動する間、一定の速度でイメージングデータを連続取得することによって、図8Bに示すような収集パターンが得られる。立体表現は、描画された取得軌跡毎に同様に生成することができる。
図7Aは、2Dテクスチャマップ11を組み込んだ(3D再構築の表現12と単一の角度「ファイ」(φ)の組み合わせに対応する)第1の実施形態を示している。この例では、テクスチャマッピングされた円錐表面11の外側にある3次元データを除外し、外表面上の2D画像データ11が見えるようにしている。この除外領域は、選択された2Dイメージングフレームに関連する円錐角度より大きい円錐角度で表現される全ての画像データに基づいている。この円錐角度は、クリッピング角度と呼ぶことができる。円錐13の底面をオペレータに向けることによって、円錐表面の内部の画像データの再構築された3D表現が見やすくなる。この場合、2Dテクスチャマッピングされた画像は、図7Bに示す走査パターンを用いて取得されている。図6Bに示す円錐の表面にマッピングされているイメージングデータフレーム表現11は、3D円錐立体表現の表面に配置されており、2Dイメージングデータフレーム11内に示されるイメージングされた解剖学的構造は、円錐立体表現12内に示される対応する部分(counterparts)に揃えられる。
図7Dは、2Dテクスチャマップ14を再構築された3D表現15に組み込んだ同様の実施形態を表している。この例では、(選択された2Dイメージングフレームの角度より小さい「ファイ」(φ)の値に対応する)円錐の内部に位置する3次元データを除外している。これにより、(選択された2Dイメージングデータフレームの角度より大きい「ファイ」(φ)の値に対応する)円錐15の表面の外側にあるイメージングデータの3D円錐立体表現が可視になっている。この除外は、選択された2Dテクスチャマップ14に関連する円錐角度より小さい全ての円錐角度のデータに基づく。この円錐角度も、クリッピング角度と呼ぶことができる。円錐16の底面をオペレータに向けることによって、オペレータは、円錐の内面にマッピングされた2Dイメージデータフレームを観察がすることができる。この場合も選択された2D画像フレーム表現14は、3D円錐立体表現15の内面に、両方の表現で表される解剖学的構造が整列するように適切に配置される。
上述した合成視覚化の実施形態では、一例として、イメージングデータの単一のフレームの識別情報を、円錐立体表現の可視部分及び不可視部分を分離する境界として用いている。可能な実施形態として、この境界フレームは、オペレータが選択してもよく、システム自体が選択してもよい。フレームを通して固定された角度「ファイ」(φ)を有さないフレームを含む、収集したイメージングデータの組内のイメージングデータの如何なる2Dフレームも、境界フレームとして用いることができる。
合成2D−3D表現内の視覚的連続性を実現するために、幾つかの実施形態は、2D及び/又は3D表現の構成要素の全部又は一部29の透明度を変更する手段を含んでいてもよい。これは、描画された画像にアルファチャンネルを関連付けることによって達成でき、ここで、表現の全ての画素は、(画像データのサンプルに対応する)強度成分及びオペレータが定義可能な透明度成分の両方を含む。更に、図7A及び図7Dについて上述した立体表現の除外された領域を表現するために透明度を使用してもよい。幾つかの実施形態では、システム又はオペレータによって透明度レベルを調整できるようにしてもよい。
合成視覚化における2D部分及び3D部分を視覚的に区別するために、可能な実施形態は、2D及び/又は3D表現の構成要素の全部又は一部に色相を関連付ける手段を備えていてもよい。代表的な画素に赤、緑及び青の色チャンネル値を割り当てることによって、画像データ視覚化表現に色相を追加することができる。適用される色相は、システム又はオペレータによって変更してもよく、適用される透明度キュー(transparency cue)に応じて変化させてもよい。
幾つかの実施形態では、透明度及び/又は色相の視覚的キューは、合成表現の2D及び/又は3D部分の全ての画素に一様に適用してもよく、他の実施形態では、このような視覚的キューを画素毎に適用してもよい。図9に示す例示的な実施形態では、透明度レベル(アルファチャンネル値)及び/又は色相(赤、緑及び/又は青のチャンネル値)が、画素の強度(画像データサンプル)の関数として、画素毎に決定される。この場合、明るい画素は、色相や透明度の違いによって暗い画素から区別される。オペレータは、画素強度値のための特定の閾値を選択して特定の色及び/又は透明度レベルを反映させてもよい。画素透明度を用いることによって、組織の描画された領域のうち、特定の画素強度値を下回る領域を隠しながら、その背後の組織の描画を明らかにすることができる。透明度値及び/又は色相の逆の適用によって、特定の領域を周囲の組織から分離することもできる。実施形態では、円錐立体表現及び/又はテクスチャマッピングされた円錐イメージングフレームの部分に画素毎に視覚的キューを適用することができる。
動的立体視覚化
米国特許第8,214,010号に開示されているイメージングシステムでは、その性質上、3次元画像データの取得の速度は、最も遅い取得軸によって制限されている。立体画像の時間分解能は、所与の空間範囲(取得軸の範囲)の組についての立体表現における画像データの更新の時間間隔によって定まる。一例として、図1は、イメージングアセンブリの「r」、「シータ」(θ)及び「ファイ」(φ)の値をある範囲とした画像データの組の立体表現を示している。「r」、「シータ」(θ)及び「ファイ」(φ)の範囲に亘って更新された画像データを取得し、更なる立体表現を表示するための処理を行うために必要な時間間隔によって立体画像の時間分解能が決まる。低分解能画像は、イメージングされた解剖学的組織内で高速に動く構造を表示するタスクには適さない。一組の値の取得のための時間分解能を高める一手法は、走査される領域の範囲を縮小することである。例えば、図1に示す座標系を用いるシステムにおいて走査角度「ファイ」(φ)の範囲を縮小することによって、連続的に取得される画像データの組の時間分解能を高めることができる。図3に示す座標系を用いるシステム内の走査位置「d」の範囲を縮小しても同様の効果が得られる。上述の手法は、組み合わせてもよい。
画像データの再構築に関する時間分解能の効果の理解に基づき、オペレータが指定した関心領域(region of interest)の時間分解能が高い空間認識を提供する視覚化の実施形態が有利である。空間的分解能が高い3D画像表現を時間分解能が高い関心領域に組み合わせる能力によって、周囲の解剖学的組織のコンテキスト内で動きがある構造を正確に視覚化する手段が提供される。図10A〜図10Fは、これを達成する実施形態を表している。図10Aは、比較的大きな立体領域、この場合、広範囲の傾斜角「ファイ」(φ)22に亘って取得された一組のイメージングデータの立体表現を表している。図10Dは、同じ立体表現の断面を表している。図10Cは、より小さい領域の立体画像データから構築され、より高い頻度で更新される立体表現を表している。なお、角度「ファイ」(φ)24の範囲は、全体の立体22のために使用される範囲より小さい。図10Fは、時間分解能が高い領域27及び時間分解能が低い領域28を有する合成表現の断面を表している。
合成される関心領域は、イメージングシステムが提供できる限界内であれば、如何なるサイズであってもよい。図10B及び図10Eは、関心領域が、図1に示す座標軸の組によれば、軸「シータ」(θ)を中心とするイメージングシステムの単一の回転によって得られるイメージングデータの単一フレームである実施形態を表している。
関心領域のサイズ及び位置は、イメージングシステムからの更新の間に不変である必要はない。図10B及び図10Eは、角度「ファイ」(φ)23によって表される関心領域が全体の立体領域を定義する角度22の範囲に亘って連続的に動き、新しい画像データフレームがイメージングデバイスから取得される都度、表現を連続的に更新する実施形態を示している。
米国特許第8,214,010号に開示されているイメージングシステムは、その性質上、イメージングデバイスの位置が必ずしもイメージングされた解剖学的組織に対して固定されておらず、イメージングデバイスの位置及び/又は向きが変化すると、時間分解能が高い画像データを含むユーザ又はシステムが定義した関心領域25の合成視覚表示の忠実性に影響が生じることがあるため、この変化を判定できるようにすることが有益である。この領域内の画像は、時間分解能が低い周囲の領域26より速やかにイメージングデバイスの動きを反映する。換言すれば、関心領域内に描画される画像は、周囲のコンテキスト表現内に描画されている画像に空間的に整列しなくなることがある。
更なる実施形態では、時間分解能が高い領域と低い領域との間の空間的不整列を検出する(図11の35に対応する)アルゴリズムを使用する。アルゴリズムは、以下のように定義される。まず、関心領域の境界に接触する表現部分に関連する画像データを、境界平面の両側を占める画素対毎に調査し、強度(画像データサンプル値)の相対的な差を算出する。このような境界平面にある画素対の差の合計は、両側の画像がどれほど同様に描画されているかを定量化するメトリックとなる。このメトリックがオペレータ又はシステムによって定義された閾値を超えると、空間的整列が連続的な表示に不適切であると判定される。このような場合、このシステムの実施形態では、コンテキストの立体表現の全体の新たな画像セットを再取得してもよい。
より包括的な空間的不整列検出アルゴリズムは、本明細書に開示する立体位置合わせ及び動き検出(Volume Registration and Motion Detection)による画像相互位置合わせの実施形態を組み込んでもよい。
図11のフローチャートは、図10A〜図10Fに示す合成視覚化を達成するための実施形態の一連の包括的なステップを示している。システムが画像データ30を取得した後、走査視野22に対応する最初の静的立体を生成し(31)、この後、オペレータ又はシステムによって関心領域18を定義し(32)、イメージングシステムが限定された領域を走査しながら、繰り返し更新を行う。イメージングプローブ及び/又は周囲の解剖学的組織の動きのために、関心領域に対応するイメージングデータと初期の静的立体との空間的整列を評価する(35)。空間的整列が適切であると判定された場合、コンテキストの立体視覚化表現によって関心領域の画像データ表現を構築する(36)。空間的整列が不適切であると判定された場合、コンテキスト立体領域の全体の範囲を表現する画像セットを再取得し(31)、処理を再開する。
発明の実施形態では、取得した画像データの連続する構築間で同じ関心領域を維持する必要はない。システムは、関心領域を更新してもよく(37)、ユーザが定義した領域を維持してもよい(38)。
更なる実施形態では、イメージングデータのゲーティングされた取得(gated acquisition)によって、イメージングされる関心領域内の解剖学的運動の影響を緩和する。このような実施形態では、ECG信号を用いて画像データの取得を心周期と同期させてもよい。このような手法によって画像を取得することによって、心周期の単一の位相において、心臓の立体表現を生成することができる。これに代えて、幾つかの心周期に亘ってイメージングデータを収集し、4次元再構築(時間とともに変化する複数の3D立体表現)を実現してもよい。幾つかの実施形態では、合成視覚表示の幾つか又は全ての部分に、ゲーティングされた取得によって得られたイメージングデータを組み込んでもよい。
コンテキストである周辺環境に描画される画像から関心領域内に描画される画像を区別する視覚的キュー(visual cues)を組み込んだ更なる実施形態を提供してもよい。このような視覚的キューは、視覚化された画像データへの透明度及び/又は色の適用を含むことができる。このような視覚的キューを適用する方法は、先の実施形態で説明した方法と同様であり、この視覚的キューの適用は、システム又はユーザによって制御することができる。この拡張として、他の可能な実施形態では、特定の視覚的キューは、視覚化された画像をイメージングデバイスが取得してから経過した時間を反映するようにしてもよい。例えば、合成視覚化のコンテキスト立体部分に描画される画像を構成する画素の透明度(アルファ値)は、取得から経過した時間の関数として算出される。この視覚化の部分が新しいデータによって更新されないと、時間の経過と共に、この表現を構成する画素の透明度が次第に高くなる。最終的に、これらの画素は、完全に消えてしまってもよい。表現の透明な領域に対応する新しい画像データの取得によって、これらの領域の画像データが再び不透明となる。
この実施形態においては、視覚的キューが合成視覚化表現の異なる部分間の時間分解能の差を表すため、視覚的キューの適用が重要である。時間分解能が高い領域は、動きやすい解剖学的領域をより正確に反映する。逆に、時間分解能が低い領域は、取得から経過した時間が増す程、信頼度が低下する。
立体相互位置合わせ及び動き検出
イメージングプローブの動きは、静的部分立体再構築と、イメージングデバイスの動的な性質との間の一貫性に影響を及ぼす。一貫性を高めるための1つの方法は、現在のイメージング情報と、静的履歴立体(static historical volume)との間の位置合わせを行うことである。一実施形態(図12A)では、カテーテル先端41は、心室内に位置する。まず、内部空間の「高密度」走査40を実行することによって、空間的分解能が高い領域を取得する(45)。所与の角度の「シータ」(θ)及び「ファイ」(φ)について、(図1に示す)rに沿って取得される画像データのライン毎に、(原点から開始して)心臓組織を表す最初の点を走査する。このような点は、血液に特徴的な信号強度から心臓組織に特徴的な信号強度への信号強度の増加によって測定できる。r−ベクトル毎に収集される(r(i),「シータ」(θ),「ファイ」(φ)、「i」は、心臓組織の最初の出現を表す。)によって表現される全ての点の集合は、心室39の内表面を画定する。この点の集合は、高密度立体走査の属性として保存してもよい。通常、この高密度走査を実行するためには、長い時間が必要である。
この後のある時点において、カテーテル先端の相対的な位置を判定するために、高密度走査によるデータ取得の間、以下のステップを実行してもよい(図13)。「シータ」(θ)及び/又は「ファイ」(φ)に亘るサンプル42の数を減らすことによって取得r−ベクトル数を減らして、r、「シータ」(θ)及び「ファイ」(φ)の同様の範囲に亘って、更なる立体走査を実行する(46)(図12B)。先と同様の手法によって心室39の内部の他のマップを構築する。この走査の実行に必要な時間は、「シータ」(θ)及び/又は「ファイ」(φ)の角度の範囲を速やかに横断できるため、短縮されている。更に、この第2のマップを算出する時間は、立体の空間分解能が低いため、より短い。
高密度走査及び低密度走査の両方で心室39の内表面を定義するデータを取得した後の課題は、2つの表面を相互位置合わせする(47)ことである。一実施形態では、各表面は点の集合によって表現される。元の一方のデータの組に対する他方のデータの組の(位置及び向きの)変化が積によって表される線形最小二乗ベストフィット法(linear-least-squares best-fit approach)を用いて、2組のデータ間の最良の相関位置を判定することができる。これによって、1つの立体走査41から他の立体走査43までのカテーテル先端の位置の変化が定義される。
ここで、相互位置合わせによる整合の品質(quality of fit)を検討することが重要である。先の例では、線形最小二乗法アルゴリズムに基づき、2組のデータ間の対応する点の対の間の総合的誤差の二乗平均平方根(root-mean-square:RMS)の合計を求めることができる。このRMS誤差は、2つの立体の位置合わせが妥当であるか、並びに更新された位置及び向きが信頼できるかを判定するメトリックとして使用することができる。位置合わせが妥当ではないとみなされると、システムは、相対的な位置情報が信頼できなくなり、新たな高密度走査を実行する必要があると判定することができる(50、45)。
上述の例を改善した実施形態では、連続するr−ベクトルを用いて、r次元に沿った心臓組織への遷移を検出する。遷移は、点ではなく、辺に沿って定義してもよい。この場合、心室の表面の輪郭は、点ではなく辺の集合として表現できる。そして、変更された相互位置合わせアルゴリズムを用いて、取得した立体間の変化を判定し、整合の品質を示す許容基準を生成することができる。
上述の実施形態を変更して、検出された辺−空間的強度(edge-space like strength)(画像強度変化の鋭さ)又は法線(取得原点に対する辺の方向)等の追加的な特性を組み込んでもよい。この更なる情報は、2つの画像立体の間の相関関係を判定するために用いられるアルゴリズムに組み込むことができる(47で実行される)。
複数の相互位置合わせアルゴリズムに基づく複数の輪郭検出方法を組み込んだ実施形態も想到される。各方法は、相互位置合わせ精度メトリックに加えて相互位置合わせ変化情報を生成する。各アルゴリズムからの位置合わせの変化を、それぞれの品質メトリックによって重み付けして平均することによって、カテーテル先端位置の推定がより確実になる。
可能な実施形態は、必ずしも、低密度立体データの組の取得に使用されるパラメータに限定されない。全ての範囲を再走査するのではなく、(図12Cに示すように)「シータ」(θ)及び/又は「ファイ」(φ)の更に狭い範囲44を走査し、これによって、位置合わせを目的とする走査に必要な時間を短縮してもよい。心室の内面を特定し、「シータ」(θ)及び/又は「ファイ」(φ)の範囲を狭くして2回目の取得を行った場合も、この表面を他の取得データと位置合わせする上述の手法を適用することができる。最終的に、この実施形態では、下位立体(sub-volume)が「シータ」(θ)軸を中心とする単一の回転に縮小され、これは、傾斜角「ファイ」(φ)が一定の場合、単一の円錐画像フレームを表現する。ここでも、上述した位置合わせの手法は、単一のイメージングフレームを想定した場合、有効であるが、より小さなデータの組がより大きいコンテキスト立体に良好に位置合わせされる可能性は低下すると予想される。
位置合わせの目的で走査領域を制限することは、単に取得時間を短縮すること以上の利益を生じることがある。例えば、医師は、何らかの治療を施すことによって、走査視野内の組織の外観を物理的に変更することがある。コンテキスト立体がこの処置の前に取得されている場合、相互位置合わせのための後の取得データは、元の組織の特徴を反映していない。これらのケースでは、変更された組織領域を相互位置合に使用されるイメージングデータのセットから除外すれば、位置合わせの精度が向上する。例えば、オペレータは、3D関心領域選択を用いることにより、変更された1又は複数の領域を手動で定義することができ、システムは、次の相互位置合わせの演算を行う際にこれらの領域を無視することができる。
ここに提案する位置合わせの実施形態の更なる変形例では、既知の情報であるカテーテルの現在位置及びその特徴的自由度54に基づいて、一組の「予測される」カテーテル位置を定義する情報51を組み込む。この更なる情報を用いて、算出された位置合わせ変化を検討の際に除外し(57)、及び/又は幾つかの位置合わせ法の出力の一部としてこれらを検討する際にこれらの重みを低減する(58)ことができる。図14のフローチャートでは、このタイプの情報を用いて候補カテーテル位置/向きの集合56をフィルタリングするアルゴリズムを詳しく示している。
最後に、図14に示す方法の拡張として、ある実施形態では、イメージングデバイスの予想される軌跡を更に特徴付ける情報を組み込む(60)。この情報は、実行中の処置に関する知識を有するオペレータが入力する(61)。一例として、ある実施形態では、オペレータは、誘導された穿刺又は注射を行うことを望む。オペレータは、イメージングシステムのユーザインタフェースを介してイメージングデバイスの意図された位置及び向きを指示することができ、この時点で、システムは適切な軌跡を判定する。オペレータは、それぞれが期待される位置及び向きを判定するための手段を有する予めプログラムされた操作の組から任意の操作を選択してもよい。
上述したように、3次元立体再構築の精度は、心臓の動きによって影響を受け、心周期の部分に合わせてイメージングデータの取得をゲーティングすることによって、この精度を向上させることができる。同様に、相互位置合わせ精度も心臓の動きによって影響を受けるので、相互位置合わせされる画像データの組のためにゲーティングされた取得技術を使用することによって、相互位置合わせの誤差を低減することができる。包括的に言えば、時間分解能が低いイメージングシーケンスは、動きの影響を受け、当分野で周知のゲーティングアルゴリズム、例えば、ECGゲーティング、呼吸運動に基づくゲーティング等を用いることが有益である。
ある実施形態では、曖昧さを解決するための複雑性を欠いた血管等の他の解剖学的組織における位置合わせの試みを特定してもよい。これは、高解像度静的立体の解析によって、組織が位置合わせを可能にするために十分な複雑さを有しているかを判定することによって行ってもよい。立体の複雑さは、内面の滑らかさ、画素辺強度の分布、及び法線ベクトル(edge normal)によって定量化することができる。
4次元再構築における下位立体識別
3次元画像内で心臓の別個の解剖学的構造(例えば、心房間中隔)を強調し又は隠す能力及び4D視覚化の後のフレーム内で同じ構造を手動で特定する必要をなくすことは、医師にとって有用である。これを実現するために、本発明が提供するシステムは、1つの再構築において、3次元下位立体表現の範囲が提供されると、以後の再構築において、同じ解剖学的部分に対応する下位立体表現を自動的に特定する能力を有する。この能力を使用する実施形態は、関心構造のサイズ、位置及び向きの僅かな変化も考慮する必要がある。これらの変化は、イメージングカテーテルの動き及び/又はイメージングされる心臓構造自体の動きの結果であることもある。
例として、図15は、他の実施形態を示している。オペレータは、手動で(例えば、3D関心領域選択)又は自動セグメント化アルゴリズムによって補助された選択によって、再構築(64)されたデータの組内で独立した立体領域を特定する(65)。
この実施形態では、自動セグメント化のサブステップのために、3D画素マトリクスに対し、ユーザ又はシステムが定義する許容度を採用した再帰的シードフィルアルゴリズムを使用することを提案する。まず、オペレータによって選択された3D画像画素(ボクセル)をシードとして定義する。このボクセルは、立体表現内の関心領域の描画された境界の内側に位置すると仮定する。アルゴリズムは、シードに接続(隣接)する全てのボクセルを検査し、(定義された許容度以内で)これらのボクセルの強度がシードの強度と同じである場合、これらのボクセルに「色付け」を行う。再帰的手法により、アルゴリズムは、色付けされた各ボクセルの近隣を調べ、(再び定義された許容度以内で)近隣のボクセルの強度がシードの強度に一致する場合、これらのボクセルを色付けする。色付けされた領域は、色付けされる新しいボクセルがなくなるまで成長する。色付けされたボクセル領域の最小の輪郭は、システムが補助する選択を表す。選択を実行する前に許容度を調整することによって、色付けされるボクセルの数、したがって、選択の範囲に影響が生じる。また、選択されるシードボクセルの強度が選択に含まれるボクセルに影響を与えることは明らかである。
特定される下位立体は、少なくとも概算的に、ボクセル強度が異なる別の領域によって特徴付けられる輪郭を有する。システムは、幾何学的中心、質量中心、向き(主要素軸)、重み付けされた向き(重み付けされた主要素軸)、体積(ボクセル数)及び/又は特定された主軸に沿って特定される寸法を判定し処理することによって、下位立体を特徴付ける(66)。システムは、構成下位立体ボクセル(constituent sub-volume voxels)に色相又は透明度の視覚的キューを適用することによって領域を強調又は隠す(67)。
視覚的キューは、本発明の先の実施形態と同じ手法によって、立体表現の特定された領域に適用することができる。同じタイプの視覚的キュー、すなわち、色及び/又は透明度は、立体関心領域を隠し又は強調する場合に適用してもよい。また、逆の領域(関心領域に含まれない立体領域)で同様のキューを使用することもできる。立体表現の一部に視覚的キューを適用する他の全てのケースと同様に、視覚的キューの適用は、オペレータ又はシステムによって制御される。最後に、ある実施形態では、更なる視覚的キューを使用して、関心領域が常にオペレータに可視となり、視覚化された表現の他の部分又はユーザインタフェースディスプレイの他のユーザ要素によって隠されることがないように関心領域をユーザインタフェース内に配置することができる。この実施形態の特徴をセンタリングビュー(centering view)と呼ぶ。
そして、より最近に取得した画像データ72から、次の立体走査によりデータを収集する(68)。次に、以前に特徴付けた立体に一致する下位立体の検索を、中心(質量中心又は幾何学的中心)位置から開始する(69)。中心点を包含する立体領域を特定する際には、再び自動セグメント化を用いる。演算負荷を制限するために、システムは、下位立体の向きの小さな変化を考慮して、先に特徴付けた立体と略々同じ寸法に検索を限定してもよい。ターゲット領域の識別の成功は、識別された下位立体が関心領域の特徴(位置、向き、立体、寸法)にどれほど一致するかに依存する。ターゲット領域の再特徴付けに成功した場合、この情報は、次の画像立体表現71の検索のための入力として使用してもよい。
更なる実施形態は、最新の検索の結果71によって又は以前の検索の組からの各特徴の何らかの加重平均によって先に識別した下位立体特徴を再定義するオプションを含んでいてもよい。検索が成功すると、描画される視覚表示に同様の隠しキュー又は強調キューが適用される(67)。ターゲット領域が識別されなかった後の画像セット取得に対応する表現では、視覚的キューは、適用されない。幾つかの(ゼロの場合もある)連続して取得した画像セット(又は先に取得した画像セットの最小限の一部)において関心領域を特定することに失敗した場合、システムは、オペレータが関心領域を再選択するまで(65)、その後の検索を中断する。
上述した実施形態は、例示的なものであり、包括的メカニズムを図15に示す通りに限定する意図はない。サブ領域特徴付けの精度を高めるために、より複雑な組織セグメント化アルゴリズム及び/又は既知の形態の心臓構造に特化された検索を含ませてもよい。可能な実施形態は、低密度から高密度の立体相互位置合わせ、動的立体視覚化及びクリッピングされた立体合成表示へのテクスチャマッピングを含む本発明の他の側面を組み込んでもよく、多くの場合、これらの側面が組み込まれる。
図17は、ここに開示する方法及びシステムを実現するコンピュータ制御システム425の例示的で非限定的な具体例を示しており、コンピュータ制御システム425は、1個以上のプロセッサ430(例えば、CPU/マイクロプロセッサ)と、バス402と、ランダムアクセスメモリ(random access memory:RAM)及び/又は読出専用メモリ(read only memory:ROM)を含むメモリ435と、1個以上の内部の記憶デバイス440(例えば、ハードディスクデバイス、コンパクトディスクドライブ又は内部フラッシュメモリ)と、電源445と、1つ以上の通信インタフェース450と、例えば、臨床医が様々な情報を入力でき、シミュレーションの実行等を行うことができるユーザインタフェース等の様々な入出力デバイス及び/又はインタフェース460とを備える。
図17では、単一の各構成要素を示しているが、コンピュータ制御システム425には、各構成要素を幾つ含ませてもよい。例えば、コンピュータは、通常、複数の異なるデータストレージ媒体を備えている。また、バス402は、全ての構成要素の間の単一の接続として示しているが、バス402は、2つ以上の構成要素をリンクする1つ以上の回路、デバイス又は通信チャンネルであってもよいことは当然である。例えば、多くのパーソナルコンピュータでは、バス402は、マザーボードであり、又はマザーボードを含む。
一実施形態においては、コンピュータ制御システム425は、汎用コンピュータ又は空間内で動作するように構成された他のハードウェア均等物であってもよく、これを含んでいてもよい。コンピュータ制御システム425は、1つ以上の通信チャンネル又はインタフェースを介してプロセッサ430に接続された1つ以上の物理的デバイスとして実現してもよい。例えば、コンピュータ制御システム425は特定用途向け集積回路(application specific integrated circuit:ASIC)を用いて実現してもよい。これに代えて、コンピュータ制御システム425は、ハードウェアとソフトの組合せとして実現してもよく、この場合、ソフトウェアは、メモリ又はネットワーク接続を介してプロセッサにロードされる。
コンピュータ可読ストレージ媒体としては、以下に限定されるものではないが、書込可能及び読出専用の媒体、例えば、揮発性及び不揮発性メモリデバイス、読出専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリデバイス、フロッピー(登録商標)及び他のリムーバブルディスク、磁気ディスク記憶媒体、光記憶媒体(例えば、コンパクトディスク(CD)、デジタル多用途ディスク(DVD))等が含まれる。命令は、デジタル及びアナログ通信リンクを介して、電気、光、音響又は他の形式の伝播信号、例えば、搬送波、赤外線信号、デジタル信号等として供給できる。ストレージ媒体は、インターネットクラウドであってもよく、ディスク等のコンピュータ可読ストレージ媒体であってもよい。
コンピュータ可読ストレージ媒体としては、以下に限定されるものではないが、書込可能及び読出専用の媒体、例えば、揮発性及び不揮発性メモリデバイス、読出専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、フラッシュメモリデバイス、フロッピー(登録商標)及び他のリムーバブルディスク、磁気ディスク記憶媒体、光記憶媒体(例えば、コンパクトディスク(CD)、デジタル多用途ディスク(DVD))等が含まれる。命令は、デジタル及びアナログ通信リンクを介して、電気、光、音響又は他の形式の伝播信号、例えば、搬送波、赤外線信号、デジタル信号等として供給できる。
上述の特定の実施形態は、例示的なものであり、これらの実施形態を様々に修正及び変形できることは明らかである。更に、特許請求の範囲は、ここに開示した特定の形式に限定されず、ここに開示した思想及び範囲に含まれる全ての修正、均等物及び変形を包含することは明らかである。

Claims (19)

  1. 複数の立体画像データの組から合成視覚表示を生成する方法において、
    a)機械的な走査を行うイメージングデバイスを用いて第1の期間に亘って取得された第1の立体の第1の立体画像データの組を受信し、前記第1の立体画像データを処理して前記第1の立体の表現を再構築するステップと、
    b)前記第1の立体内で関心領域を定義するステップと、
    c)前記第1の期間より短い第2の期間に亘って取得された前記関心領域の更なる画像データの組を受信するステップと、
    d)前記関心領域の更なる画像データの組を前記第1の立体画像データの組に結合し、結合画像データの組を生成し、前記結合画像データの組を処理して前記第1の立体の結合表現を再構築するステップと、
    e)前記ステップb)乃至ステップd)を1回以上繰り返すステップと、
    f)前記第1の立体の関心領域部分の表現が前記第1の立体の他の部分に比べて、より高い頻度で更新されるように、前記ステップa)とステップc)乃至e)とを1回以上繰り返すステップと、
    を有する方法。
  2. 前記関心領域の表現が前記第1の立体の他の部分から視覚的に区別されるように前記結合表現に視覚的キューを適用するステップを更に有する請求項1記載の方法。
  3. 前記視覚的キューは、前記関心領域の表現及び前記第1の立体の他の部分の少なくとも1つに適用される色相または透明度である請求項2記載の方法。
  4. 前記視覚的キューは、前記第1の立体の他の部分の表現に適用され、前記第1の立体画像データの組の取得から経過した時間を示す時間依存キューである請求項3記載の方法。
  5. 前記ステップe)を実行する間、前記ステップb)で定義された関心領域は、不変のままである請求項1又は2記載の方法。
  6. さらに、前記ステップb)で定義した関心領域が、オペレータが定義可能な基準またはシステムが定義可能な基準に基づいて変化できるように、ステップe)を実行する間、ステップb)を繰り返すステップを有する請求項1又は2記載の方法。
  7. 前記ステップb)で定義した関心領域は、イメージングデータの単一の2Dフレームである請求項1、2、4、5、または6記載の方法。
  8. らに、前記関心領域の表現と前記第1の立体の表現の間の空間的整列の精度を検査するステップと、前記空間的整列が許容できる整列のレベルを下回ったとき、前記ステップa)乃至ステップe)を回以上繰り返すステップと、を有する請求項1乃至7いずれか1項記載の方法。
  9. 前記第1の立体画像データの組は、ゲーティング法を用いて取得される請求項1乃至8いずれか1項記載の方法。
  10. 立体の複数の画像の取得の間にイメージングデバイスの位置及び/又は向きの変化を算出する方法において、
    a)イメージングデバイスによって第1の期間に亘って取得された第1の立体からのイメージングデータの第1の組を受信するステップと、
    b)前記第1の立体からイメージングデータの第1の組を処理して、表示に適する前記第1の立体の表現を再構築するステップと、
    c)前記イメージングデバイスによって前記第1の期間より短い更なる期間に亘って取得された更なる立体からのイメージングデータの更なる組を受信するステップと、
    d)前記イメージングデータの更なる組を処理して、前記更なる立体の表現を再構築するステップと、
    e)前記第1の立体の表現及び前記更なる立体の表現を処理し、前記第1の立体の表現を前記更なる立体の表現に位置合わせし、前記位置合わせされた表現の整合の度合いを判定するステップと、
    f)許容可能な整合の度合いが達成された場合、前記イメージングデータの第1の組の取得の間のイメージングデバイスの位置及び/又は向きに対する前記イメージングデータの更なる組の取得の間のイメージングデバイスの位置及び/又は向きを算出し、前記ステップc)乃至ステップe)を回以上繰り返すステップと、
    g)位置合わせが達成されなかった場合、前記ステップa)乃至ステップe)を回以上繰り返すステップと、
    を有する方法。
  11. 前記イメージングデータの更なる組は、前記イメージングデータの第1の組を取得する際に使用した空間分解能より低い空間分解能を使用して取得される請求項10記載の方法。
  12. 前記イメージングデータの更なる組は、前記イメージングデータの第1の組を取得する際に使用した視野より狭い視野を使用して取得される請求項10記載の方法。
  13. 前記ステップe)は、前記イメージングデバイスの予想される可能な位置及び/又は向きを前記位置合わせの処理に組み込む請求項10乃至12いずれか1項記載の方法。
  14. 前記ステップe)は、前記イメージングデバイスの予想される軌跡を前記位置合わせの処理に組み込む請求項10乃至12いずれか1項記載の方法。
  15. 前記ステップf)は、前記イメージングデータの更なる組の取得の間の前記イメージングデバイスの位置及び/又は向きを示すように前記第1の立体の再構築された表現を更新するステップを更に含む請求項10乃至14いずれか1項記載の方法。
  16. 立体の複数の走査の間に前記立体内の領域を特定及び強調する方法において、
    a)第1の立体の画像の組を取得し、前記画像の組から前記第1の立体の3D表現を生成するステップと、
    b)前記第1の立体の3D表現内の関心体積領域を特定するステップと、
    c)前記関心体積領域を特徴付ける一組のパラメータを決定するように前記第1の立体の画像の組を処理し、前記特徴付けられた体積領域の一組の画像パラメータを保存するステップと、
    d)前記特徴付けられた関心体積領域に視覚的キューを適用するステップと、
    e)更なる立体の更なる画像の組を取得し、前記更なる画像の組から前記更なる立体の3D表現を生成するステップと、
    f)前記特徴付けられた関心体積領域のパラメータの保存された組に従って前記更なる画像の組を検索することにより前記更なる画像の組を処理し、前記更なる立体内で前記関心体積領域の存在を特定するステップと、
    g)前記更なる立体内で前記関心体積領域が特定された場合には、前記ステップc)で保存したパラメータの組を任意に更新し、前記ステップd)乃至ステップを繰り返すステップと、
    h)前記更なる立体内で前記関心体積領域が特定されない場合には、前記ステップa)乃至ステップg)を回以上繰り返すステップと、
    を有する方法。
  17. 前記視覚的キューは、前記関心体積領域の表現及び前記第1の立体の他の部分の少なくとも1つに適用される色相である請求項16記載の方法。
  18. 前記視覚的キューは、前記関心体積領域の表現及び前記第1の立体の他の部分の少なくとも1つに適用される透明度の値である請求項16記載の方法。
  19. 前記関心体積領域は、センタリングビューとして設定される請求項16記載の方法。
JP2015561872A 2013-03-15 2014-03-17 3dイメージングシステムのためのデータ表示及び処理アルゴリズム Expired - Fee Related JP6393698B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361801284P 2013-03-15 2013-03-15
US61/801,284 2013-03-15
PCT/CA2014/050283 WO2014139032A1 (en) 2013-03-15 2014-03-17 Data display and processing algorithms for 3d imaging systems

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018157925A Division JP6611880B2 (ja) 2013-03-15 2018-08-27 3dイメージングシステムのためのデータ表示及び処理アルゴリズム

Publications (3)

Publication Number Publication Date
JP2016509889A JP2016509889A (ja) 2016-04-04
JP2016509889A5 JP2016509889A5 (ja) 2017-04-20
JP6393698B2 true JP6393698B2 (ja) 2018-09-19

Family

ID=51535749

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015561872A Expired - Fee Related JP6393698B2 (ja) 2013-03-15 2014-03-17 3dイメージングシステムのためのデータ表示及び処理アルゴリズム
JP2018157925A Active JP6611880B2 (ja) 2013-03-15 2018-08-27 3dイメージングシステムのためのデータ表示及び処理アルゴリズム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018157925A Active JP6611880B2 (ja) 2013-03-15 2018-08-27 3dイメージングシステムのためのデータ表示及び処理アルゴリズム

Country Status (6)

Country Link
US (2) US9786056B2 (ja)
EP (1) EP2973424B1 (ja)
JP (2) JP6393698B2 (ja)
AU (1) AU2014231354B2 (ja)
BR (1) BR112015023723A2 (ja)
WO (1) WO2014139032A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3424403B1 (en) * 2016-03-03 2024-04-24 Sony Group Corporation Medical image processing device, system, method, and program
EP3565259A1 (en) * 2016-12-28 2019-11-06 Panasonic Intellectual Property Corporation of America Three-dimensional model distribution method, three-dimensional model receiving method, three-dimensional model distribution device, and three-dimensional model receiving device
CA3054383C (en) * 2017-02-24 2023-07-11 Sunnybrook Research Institute Systems and methods for noise reduction in imaging
US11423318B2 (en) * 2019-07-16 2022-08-23 DOCBOT, Inc. System and methods for aggregating features in video frames to improve accuracy of AI detection algorithms
US10671934B1 (en) 2019-07-16 2020-06-02 DOCBOT, Inc. Real-time deployment of machine learning systems
US20210052146A1 (en) * 2019-08-19 2021-02-25 Covidien Lp Systems and methods for selectively varying resolutions
US20210315636A1 (en) * 2020-04-09 2021-10-14 Acclarent, Inc. User interface for image guided surgery system
US11100373B1 (en) 2020-11-02 2021-08-24 DOCBOT, Inc. Autonomous and continuously self-improving learning system

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5373845A (en) 1992-05-22 1994-12-20 Echo Cath, Ltd. Apparatus and method for forward looking volume imaging
US5373849A (en) 1993-01-19 1994-12-20 Cardiovascular Imaging Systems, Inc. Forward viewing imaging catheter
US6059727A (en) * 1995-06-15 2000-05-09 The Regents Of The University Of Michigan Method and apparatus for composition and display of three-dimensional image from two-dimensional ultrasound scan data
US6002738A (en) * 1995-07-07 1999-12-14 Silicon Graphics, Inc. System and method of performing tomographic reconstruction and volume rendering using texture mapping
JP3296193B2 (ja) * 1996-06-26 2002-06-24 富士写真光機株式会社 超音波画像生成装置
US5871019A (en) * 1996-09-23 1999-02-16 Mayo Foundation For Medical Education And Research Fast cardiac boundary imaging
US6126603A (en) * 1997-05-07 2000-10-03 General Electric Company Method and apparatus for segmenting color flow mode data using velocity information in three-dimensional ultrasound imaging
US6181348B1 (en) * 1997-09-22 2001-01-30 Siemens Corporate Research, Inc. Method for selective volume visualization via texture mapping
JPH11137556A (ja) * 1997-11-10 1999-05-25 Olympus Optical Co Ltd 超音波プローブ
US6159152A (en) 1998-10-26 2000-12-12 Acuson Corporation Medical diagnostic ultrasound system and method for multiple image registration
US6315732B1 (en) 1999-07-20 2001-11-13 Scimed Life Systems, Inc. Imaging catheter and methods of use for ultrasound-guided ablation
US6750873B1 (en) * 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
JP4095332B2 (ja) * 2001-04-24 2008-06-04 株式会社東芝 超音波診断装置
WO2003011139A1 (en) 2001-07-31 2003-02-13 Koninklijke Philips Electronics N.V. Transesophageal and transnasal, transesophageal ultrasound imaging systems
US6572547B2 (en) * 2001-07-31 2003-06-03 Koninklijke Philips Electronics N.V. Transesophageal and transnasal, transesophageal ultrasound imaging systems
USRE45759E1 (en) * 2001-07-31 2015-10-20 Koninklijke Philips N.V. Transesophageal and transnasal, transesophageal ultrasound imaging systems
US20060025689A1 (en) * 2002-06-07 2006-02-02 Vikram Chalana System and method to measure cardiac ejection fraction
US7520857B2 (en) * 2002-06-07 2009-04-21 Verathon Inc. 3D ultrasound-based instrument for non-invasive measurement of amniotic fluid volume
US6825838B2 (en) * 2002-10-11 2004-11-30 Sonocine, Inc. 3D modeling system
US20040215077A1 (en) * 2002-11-08 2004-10-28 Witt Jerome F. Color ensemble interleave with artifact elimination in time-gated anatomical imaging
US7599730B2 (en) * 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
WO2004068406A2 (en) * 2003-01-30 2004-08-12 Chase Medical, L.P. A method and system for image processing and contour assessment
US9470801B2 (en) * 2004-01-13 2016-10-18 Spectrum Dynamics Llc Gating with anatomically varying durations
US20050237336A1 (en) * 2004-04-23 2005-10-27 Jens Guhring Method and system for multi-object volumetric data visualization
JP4577504B2 (ja) * 2005-03-31 2010-11-10 富士フイルム株式会社 画像診断装置
US20060253024A1 (en) 2005-04-26 2006-11-09 Altmann Andres C Software product for three-dimensional cardiac imaging using ultrasound contour reconstruction
US7914458B2 (en) 2005-05-05 2011-03-29 Volcano Corporation Capacitive microfabricated ultrasound transducer-based intravascular ultrasound probes
US20080219527A1 (en) * 2005-07-26 2008-09-11 Koninklijke Philips Electronics N. V. Cardiac Region Detection From Motion Analysis of Small Scale Reconstruction
US7918793B2 (en) * 2005-10-28 2011-04-05 Biosense Webster, Inc. Synchronization of ultrasound imaging data with electrical mapping
WO2007092054A2 (en) * 2006-02-06 2007-08-16 Specht Donald F Method and apparatus to visualize the coronary arteries using ultrasound
US20070255137A1 (en) * 2006-05-01 2007-11-01 Siemens Medical Solutions Usa, Inc. Extended volume ultrasound data display and measurement
US20080009722A1 (en) * 2006-05-11 2008-01-10 Constantine Simopoulos Multi-planar reconstruction for ultrasound volume data
US20090149756A1 (en) 2006-06-23 2009-06-11 Koninklijke Philips Electronics, N.V. Method, apparatus and computer program for three-dimensional ultrasound imaging
CN101511272B (zh) * 2006-09-11 2014-08-27 柯尼卡美能达株式会社 超声波诊断装置
DE602007012450D1 (de) 2006-10-02 2011-03-24 Hansen Medical Inc System für dreidimensionale ultraschall-abbildung
TW200837378A (en) * 2006-10-20 2008-09-16 Koninkl Philips Electronics Nv Methods and apparatus for high speed image acquisition rates in 3D medical imaging
JP2010516304A (ja) * 2007-01-19 2010-05-20 サニーブルック・ヘルス・サイエンシズ・センター 超音波と光学を複合した画像手段を有する撮像プローブ
US8303502B2 (en) 2007-03-06 2012-11-06 General Electric Company Method and apparatus for tracking points in an ultrasound image
US8057394B2 (en) * 2007-06-30 2011-11-15 St. Jude Medical, Atrial Fibrillation Division, Inc. Ultrasound image processing to render three-dimensional images from two-dimensional images
US8090168B2 (en) 2007-10-15 2012-01-03 General Electric Company Method and system for visualizing registered images
US8885897B2 (en) * 2007-10-26 2014-11-11 Koninklijke Philips N.V. Closed loop registration control for multi-modality soft tissue imaging
US8320711B2 (en) * 2007-12-05 2012-11-27 Biosense Webster, Inc. Anatomical modeling from a 3-D image and a surface mapping
US8270694B2 (en) 2008-04-23 2012-09-18 Aditya Koolwal Systems, methods and devices for correlating reference locations using image data
JP5253893B2 (ja) * 2008-06-03 2013-07-31 株式会社東芝 医用画像処理装置、超音波診断装置、及び超音波画像取得プログラム
KR101107478B1 (ko) * 2008-12-15 2012-01-19 삼성메디슨 주식회사 다수의 3차원 초음파 영상을 형성하는 초음파 시스템 및 방법
US8265363B2 (en) * 2009-02-04 2012-09-11 General Electric Company Method and apparatus for automatically identifying image views in a 3D dataset
US8724874B2 (en) * 2009-05-12 2014-05-13 Siemens Aktiengesellschaft Fusion of 3D volumes with CT reconstruction
US10835207B2 (en) 2009-12-23 2020-11-17 Biosense Webster (Israel) Ltd. Fast anatomical mapping using ultrasound images
US20120071753A1 (en) * 2010-08-20 2012-03-22 Mark Hunter Apparatus and method for four dimensional soft tissue navigation including endoscopic mapping
JP2012161460A (ja) 2011-02-07 2012-08-30 Fujifilm Corp 画像処理装置および画像処理方法、並びに、画像処理プログラム
JP2013000414A (ja) * 2011-06-17 2013-01-07 Toshiba Corp 超音波診断装置、超音波画像処理装置及び超音波画像取得プログラム
US9196092B2 (en) * 2012-06-11 2015-11-24 Siemens Medical Solutions Usa, Inc. Multiple volume renderings in three-dimensional medical imaging
US20140071125A1 (en) * 2012-09-11 2014-03-13 The Johns Hopkins University Patient-Specific Segmentation, Analysis, and Modeling from 3-Dimensional Ultrasound Image Data
US9629595B2 (en) 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments

Also Published As

Publication number Publication date
WO2014139032A1 (en) 2014-09-18
EP2973424B1 (en) 2018-02-21
US20160027184A1 (en) 2016-01-28
US20180158190A1 (en) 2018-06-07
JP6611880B2 (ja) 2019-11-27
JP2016509889A (ja) 2016-04-04
US10699411B2 (en) 2020-06-30
AU2014231354A1 (en) 2015-09-24
JP2019048046A (ja) 2019-03-28
EP2973424A1 (en) 2016-01-20
US9786056B2 (en) 2017-10-10
AU2014231354B2 (en) 2019-08-29
EP2973424A4 (en) 2016-10-26
BR112015023723A2 (pt) 2017-07-18

Similar Documents

Publication Publication Date Title
JP6611880B2 (ja) 3dイメージングシステムのためのデータ表示及び処理アルゴリズム
KR101932721B1 (ko) 의료 영상들의 정합 방법 및 장치
JP5873440B2 (ja) 自動セグメンテーション及び時間的追跡方法
JP5474342B2 (ja) 3−d画像および表面マッピングによる解剖学的モデル化
JP2014217745A (ja) 超音波診断装置、およびその制御方法
JP7375140B2 (ja) 超音波診断装置、医用画像診断装置、医用画像処理装置及び医用画像処理プログラム
BR112015004061B1 (pt) Sistema de geração de imagens por ultrassom para a inspeção de um objeto em um volume, e método para a provisão de uma imagem por ultrassom tridimensional de um objeto em um volume.
JP2011131062A (ja) 超音波画像を使用した高速解剖学的マッピング
JP2015047506A (ja) 医療映像を整合する方法及びその装置
US11278259B2 (en) Thrombus detection during scanning
JP2009153600A (ja) 超音波診断装置、画像処理装置及びプログラム
JP6039876B2 (ja) 左心室のねじれを測定するシステム及び方法
US7376254B2 (en) Method for surface-contouring of a three-dimensional image
EP1952359A1 (en) System and method for generating for display two-dimensional echocardiography views from a three-dimensional image
Yue et al. Speckle tracking in intracardiac echocardiography for the assessment of myocardial deformation
Song et al. Morphologic assessment of the left atrial appendage in patients with atrial fibrillation by gray values–inverted volume-rendered imaging of three-dimensional transesophageal echocardiography: A comparative study with computed tomography
Bhan et al. Three-dimensional echocardiography
JP2018143416A (ja) 生体内運動追跡装置
Mazaheri et al. A Review of Ultrasound and Computed Tomography Registration Approaches
Zang et al. 3D segmentation and reconstruction of endobronchial ultrasound
Gan Image analytic tools for tissue characterization using optical coherence tomography
Koolwal et al. A probabilistic framework for freehand 3D ultrasound reconstruction applied to catheter ablation guidance in the left atrium
Haak Augmenting Electrophysiology Interventions with Advanced 3D Transesophageal Echocardiography
LASCU et al. Real-Time 3D Echocardiography Processing

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20160603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180619

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180827

R150 Certificate of patent or registration of utility model

Ref document number: 6393698

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees