JP6993334B2 - 自動化された心臓ボリュームセグメンテーション - Google Patents

自動化された心臓ボリュームセグメンテーション Download PDF

Info

Publication number
JP6993334B2
JP6993334B2 JP2018527794A JP2018527794A JP6993334B2 JP 6993334 B2 JP6993334 B2 JP 6993334B2 JP 2018527794 A JP2018527794 A JP 2018527794A JP 2018527794 A JP2018527794 A JP 2018527794A JP 6993334 B2 JP6993334 B2 JP 6993334B2
Authority
JP
Japan
Prior art keywords
image
processor
data
machine learning
learning system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018527794A
Other languages
English (en)
Other versions
JP2019504659A5 (ja
JP2019504659A (ja
Inventor
アービング ゴールデン ダニエル
アクセリオ-シリーズ ジョン
リー マシュー
アルニ ターラム トリン
リーマン-シフリー ジェシー
Original Assignee
アーテリーズ インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アーテリーズ インコーポレイテッド filed Critical アーテリーズ インコーポレイテッド
Publication of JP2019504659A publication Critical patent/JP2019504659A/ja
Publication of JP2019504659A5 publication Critical patent/JP2019504659A5/ja
Application granted granted Critical
Publication of JP6993334B2 publication Critical patent/JP6993334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/5608Data processing and visualization specially adapted for MR, e.g. for feature analysis and pattern recognition on the basis of measured MR data, segmentation of measured MR data, edge contour detection on the basis of measured MR data, for enhancing measured MR data in terms of signal-to-noise ratio by means of noise filtering or apodization, for enhancing measured MR data in terms of resolution by means for deblurring, windowing, zero filling, or generation of gray-scaled images, colour-coded images or images displaying vectors instead of pixels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56308Characterization of motion or flow; Dynamic imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/561Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by reduction of the scanning time, i.e. fast acquiring systems, e.g. using echo-planar pulse sequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/561Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution by reduction of the scanning time, i.e. fast acquiring systems, e.g. using echo-planar pulse sequences
    • G01R33/5613Generating steady state signals, e.g. low flip angle sequences [FLASH]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R33/00Arrangements or instruments for measuring magnetic variables
    • G01R33/20Arrangements or instruments for measuring magnetic variables involving magnetic resonance
    • G01R33/44Arrangements or instruments for measuring magnetic variables involving magnetic resonance using nuclear magnetic resonance [NMR]
    • G01R33/48NMR imaging systems
    • G01R33/54Signal processing systems, e.g. using pulse sequences ; Generation or control of pulse sequences; Operator console
    • G01R33/56Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution
    • G01R33/563Image enhancement or correction, e.g. subtraction or averaging techniques, e.g. improvement of signal-to-noise ratio and resolution of moving material, e.g. flow contrast angiography
    • G01R33/56308Characterization of motion or flow; Dynamic imaging
    • G01R33/56316Characterization of motion or flow; Dynamic imaging involving phase contrast techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Description

本開示は、概して、解剖構造の自動化されたセグメンテーションに関する。
磁気共鳴イメージング(MRI)は、心臓病を持つか、それが疑われる患者を評価するための心臓イメージングにおいてしばしば使用される。特に、心臓MRIは、心臓の高解像度シネ画像を精密に捕捉するその能力によって、心不全及び類似の病態に関係付けられた尺度(metrics)を定量化するために使用され得る。これらの高解像度画像は、心臓の関連する解剖学的領域(例えば、心室及び筋肉など)のボリュームが、手動で、又は半自動化もしくは全自動化されたソフトウェアの助けによって測定されることを可能にする。
心臓MRIシネシーケンスは、1つ又は複数の空間スライスからなり、空間スライスの各々が、心周期全体にわたる複数の時点(例えば、20個の時点)を含む。典型的には、以下のビューのいくつかのサブセットが別個の系列として捕捉される:短軸(SAX)ビューは、左心室の長軸に沿ったスライスの系列からなる。各スライスは、この心室の長軸に直交する左心室の短軸の平面内にある;2チャンバー(2-chamber)(2CH)ビューは、左心室及び左心房又は右心室及び右心房のいずれかを示す長軸(LAX)ビューであり;3チャンバー(3CH)ビューは、左心室、左心房及び大動脈、又は右心室、右心房及び大動脈のいずれかを示すLAXビューであり;4チャンバー(4CH)ビューは、左心室、左心房、右心室及び右心房を示すLAXビューである。
取得のタイプに応じて、これらのビューは、スキャナ(例えば、定常自由歳差運動(steady-state free precession:SSFP)MRI)に直接取り込まれる場合があり、又は、異なる向きに整列されたボリュームの多平面再構成(MPR)(例えば、アキシャル面、サジタル面、又は冠状面など、例えば、4Dフロー(Flow)MRI)を介して作成される場合もある。SAXビューは複数の空間スライスを有し、通常は心臓のボリューム全体をカバーするが、2CH、3CH、及び4CHビューでは単一の空間スライスしか有していないことが多い。すべての系列がシネであり、完全な心周期を網羅する複数の時点を有する。
心機能のいくつかの重要な測定は、心室ボリュームの精密な測定に依存する。例えば、駆出率(EF)は、各心拍で送り出される左心室(LV)内の血液の割合を表す。異常に低いEF測定値は、しばしば心不全に関連付けられる。EFの測定は、LVが最大限に収縮される収縮末期フェーズとLVが最大限に拡張される拡張末期フェーズとの両方で、心室血液プールボリュームに依存する。
LVのボリュームを測定するために、心室は典型的にはSAXビューでセグメント化される。この症例をレビューする放射線科医は、手動で単一のスライスについての各時点を通して周期を巡回し、心室が最大限に収縮又は拡張される時点をそれぞれ決定することによって、収縮末期(ES)時点及び拡張末期(ED)時点をまず決定する。それら2つの時点を決定した後、放射線科医は、心室が可視であるSAX系列のすべてのスライスにおけるLVの周囲に輪郭を描く。
輪郭が作成されると、輪郭内のピクセルを合計し、x及びy方向の面内ピクセル間隔(例えば、ピクセル当たりのmm)で掛けることによって、各スライス内の心室の面積が計算され得る。次いで、各空間スライス内の面積を合計し、スライス間の距離(例えば、ミリメートル(mm))で掛けることによって、総心室ボリュームが決定され得る。これは、立体mmでのボリュームをもたらす。スライス面積を統合して総ボリュームを決定する他の方法が使用されてもよく、例えば、シンプソンのルールの改変版では、直線セグメントを使用して離散積分を近似する代わりに、二次セグメントを使用して近似する。ボリュームは、典型的にはES及びEDで計算され、駆出率及び類似の尺度がボリュームから決定され得る。
LV血液プールボリュームを測定するために、放射線科医は、典型的には、2つの時点(ES及びED)の各々で約10個の空間スライス上でLV心内膜(心筋の内壁)に沿って輪郭を作成し、合計約20個の輪郭を得る。(例えば、能動輪郭又は「スネーク(snakes)」アルゴリズムを使用する)半自動化された輪郭配置ツールが存在するが、これらは、典型的には輪郭のいくつかの手動調整を必要とし、特に、ノイズ又はアーチファクト(artifacts)を有する画像の場合に必要とする。これらの輪郭を作成するプロセス全体は、10分以上かかることがあり、その大部分は手動調整に関係する。例示的なLV心内膜輪郭が、完全なSAXスタックにわたる単一の時点での輪郭を示す図1の画像100a~100kとして示されている。100aから100kへ、スライスは左心室の尖部から左心室の底部へと進む。
上記の説明は、(LV心内膜の輪郭化を介する)LV血液プールの測定について具体的に述べているが、右心室における機能的病態を評価するために、右心室(RV)血液プールに対して同じボリューム測定が行われる必要がある場合が多い。加えて、心筋(心臓筋肉)質量の測定が必要とされることがあり、これは心外膜(心筋の外面)を輪郭化することを必要とする。これら4つの輪郭(LV心内膜、LV心外膜、RV心内膜、RV心外膜)の各々は、半自動化されたツールを使用しても、作成及び補正するために経験豊かな放射線科医を10分以上のオーダーで束縛しうる。4つすべての輪郭を作成するには30分以上を必要とし得る。
このプロセスの煩わしい負担の最も明白な帰結は、心臓MRI検査を読み込むことが高価となることである。別の重大な帰結は、絶対に必要でない限り、一般に輪郭ベースの測定が行われないことであり、行われた各心臓MRI検査から抽出され得る診断情報を限定することになる。完全に自動化された輪郭生成及びボリューム測定は、放射線科医の処理量だけでなく、各検査から抽出され得る診断情報の量にも明らかに大きな利点がある。
(能動的輪郭ベースの方法の制限)
心室輪郭を作成する最も基本的な方法は、自動化されたアルゴリズムやツールをまったく用いずに、ある種のポリゴン又はスプライン描画ツールを用いて手動でプロセスを完了することである。この場合、ユーザは、例えば、心室の外形のフリーハンド書きを作成し、又は、スプライン制御点を投下し、スプライン制御点を滑らかなスプライン輪郭に接続することができる。輪郭の初期作成の後、ソフトウェアのユーザインターフェースに応じて、ユーザは通常、例えば、制御点を移動、追加、もしくは削除することによって、又はスプラインセグメントを移動することによって、輪郭を修正する何らかの能力を有する。
このプロセスの煩わしい負担を軽減するために、心室セグメンテーションをサポートするほとんどのソフトウェアパッケージは、半自動化されたセグメンテーションツールを含んでいる。半自動化された心室セグメンテーションのための1つのアルゴリズムは、「スネーク」アルゴリズムである(より正式には「能動輪郭(active contours)」として知られる)。例えば、「Kass, M., Witkin, A., & Terzopoulos, D. (1988). "Snakes: Active contour models." International Journal of Computer Vision, 1(4), 321-331.」を参照されたい。スネークアルゴリズムは、変形可能なスプラインを生成し、これは、エネルギー最小化手法によって画像の強度勾配に重なるように制約される。実際に、この手法は、輪郭を画像における高い勾配(エッジ)のエリアへ制約すると共に、輪郭における高い配向勾配(曲率)のエリア又は「キンク(kink)」を最小限にすることを目指す。最適な結果は、画像のエッジにきっちり重なる滑らかな輪郭となる。4Dフロー心臓検査における左心室心内膜に対するスネークアルゴリズムの成功結果の例が図2の画像200に示されており、画像200ではLV心内膜の輪郭202を示している。
スネークアルゴリズムは一般的であり、その結果の輪郭を修正するのはゼロから輪郭を生成するよりもかなり速くなり得るが、スネークアルゴリズムはいくつかの重大な欠点を有する。特に、スネークアルゴリズムは「シード」を必要とする。アルゴリズムによって改善されることになる「シード輪郭」は、ユーザ又はヒューリスティックのいずれかによって設定されなければならない。また、スネークアルゴリズムは局所的なコンテキスト(context)のみを知っている。スネークのコスト関数は、典型的には、輪郭が画像内のエッジと重なったときにクレジット(credit)を付与するが、検出されたエッジが所望されたものであることをアルゴリズムに通知する方法がなく、例えば、心内膜と他の解剖学的要素(例えば、他の心室、肺、肝臓)の境界との明確な区別がない。従って、このアルゴリズムは、予測可能な解剖学的形態及びシードが適切に設定されることに非常に依存している。さらに、スネークアルゴリズムは貪欲(greedy)である。スネークのエネルギー関数は、コスト関数の勾配の方向に自由パラメータを反復的に移動させる勾配降下などの貪欲なアルゴリズムを使用して最適化されることが多い。しかしながら、勾配降下及び多くの類似した最適化アルゴリズムは、コスト関数の極小値に捕らわれやすい。これは、イメージングアーチファクトや血液プールと乳頭筋との間のエッジのような画像内の誤ったエッジに潜在的に結合された輪郭として現れる。加えて、スネークアルゴリズムは小さな表現空間を有する。スネークアルゴリズムは、一般にわずか数十個の調整可能パラメータしか持たず、従って、セグメンテーションが所望される可能性のある画像の様々なセットを表す能力を有していない。多くの様々なファクタが、心室の認識された取り込まれた画像に影響を与える可能性があり、それらのファクタは、解剖学的形態(例えば、サイズ、心室の形状、病態、以前の手術、乳頭筋)、イメージングプロトコル(例えば、造影剤、パルスシーケンス、スキャナタイプ、受信器コイル品質及びタイプ、患者位置、画像解像度)、及び他のファクタ(例えば、モーションアーチファクト)を含む。記録された画像の多様性が大きく、調整可能パラメータが少数であるため、スネークアルゴリズムは「適切に挙動する」ケースのごく一部でのみ適切に実行することができる。
スネークアルゴリズムのこれらの及び他の欠点にかかわらず、スネークアルゴリズムの人気は、スネークアルゴリズムが明示的な「トレーニング」無しで展開でき、そのため実装が比較的簡単であるという事実に主に由来する。しかしながら、スネークアルゴリズムは、より困難な場合にも役立つように適切に調整されることができない。
(血液プールから乳頭筋を除外する課題)
乳頭筋は、左心室と右心室の両方の心内膜の内部にある筋肉である。乳頭筋は、心室収縮中に弁への圧力が増加したとき、僧帽弁及び三尖弁が閉じられているのを維持するために役立つ。図3は、左心室の乳頭筋及び心筋を示す例示的なSSFP MRI画像300a(拡張末期)及び300b(収縮末期)を示す。拡張末期(画像300a)において主な課題は、乳頭筋をそれらが埋め込まれている血液プールから区別することであり、収縮末期(画像300b)において主な課題は、乳頭筋を心筋から区別することであることに留意されたい。
心室血液プール(手動又は自動のいずれか)のセグメンテーションを行うとき、乳頭筋は輪郭内に含まれるか、又は輪郭から除外されるかのいずれかであり得る。乳頭筋が輪郭内に含まれるか輪郭から除外されるかにかかわらず、血液プールを囲む輪郭は、しばしば口語的に「心内膜輪郭」と呼ばれることに留意されたい。後者の場合、輪郭が心内膜の真の表面に滑らかにマッピングしないため、「心内膜」という用語は厳密には正確でないが、これにかかわらず、「心内膜輪郭」という用語は便宜上使用される。
心内膜輪郭は、典型的には、心室内の血液量を測定するためにSAXスタック内のすべての画像上に作成される。従って、乳頭筋が心内膜輪郭から除外された場合に、血液量の最も精密な測定が行われる。しかしながら、筋肉は多数あり小さいため、手動の輪郭からそれらを除外するには、輪郭を作成するときにかなり多くの注意が払われる必要があり、従ってプロセスの煩わしい負担を劇的に増加させる。結果として、手動の輪郭を作成するとき、乳頭筋は通常、心内膜輪郭内に含まれ、結果として、心室の血液量のいささか過大な評価が生じる。技術的には、これは血液プールボリュームと乳頭筋ボリュームの合計を測定している。
自動化又は半自動化されたユーティリティが、心内膜輪郭から乳頭筋を除外するプロセスを高速化し得るが、それらは重要な注意事項を有する。(上述された)スネークアルゴリズムは、その標準的な定式化では孔無しの単一の連結された領域の輪郭化のみを可能にするため、拡張末期に乳頭筋を除外するのに適していない。アルゴリズムが輪郭内の孔を取り扱うように適合されてもよいが、乳頭筋は血液プールよりもはるかに小さいので、アルゴリズムは、小さな接続された領域と大きな接続された領域との両方を同時に取り扱うようにかなり再定式化されなければならない。要するに、血液プールをセグメント化して拡張末期において乳頭筋を除外するために、標準的スネークアルゴリズムが使用されるのは不可能である。
収縮末期において、乳頭筋量の大部分が心筋に接しているとき、スネークアルゴリズムは、(乳頭筋と心筋との間に強度境界がほとんど又はまったく存在しないので)デフォルトで乳頭筋の大部分を心内膜輪郭から除外し、それらを含むようにされ得ない。従って、標準的な定式化では、スネークアルゴリズムは、拡張末期に乳頭筋を含み、収縮末期に乳頭筋を除外することができるだけであり、結果として、心周期にわたって血液プールボリュームの不整合な測定をもたらす。これは、スネークアルゴリズムの重大な制限であり、ユーザによる大幅な補正無しにその出力を臨床に使用することを妨げている。
血液プール輪郭を作成する代替的な半自動化された方法は、「フラッドフィル(flood fill)」アルゴリズムを使用している。フラッドフィルアルゴリズムでは、ユーザが初期シード点を選択し、強度勾配及びシード点からの距離が閾値を超えないシード点に接続されたすべてのピクセルが、選択されたマスク内に含まれる。スネークアルゴリズムのように、フラッドフィルは、セグメント化された領域が接続される必要があるが、フラッドフィルは、接続された領域が孔を有することができるという利点を持つ。従って、乳頭筋がそれらの強度に基づいて血液プールから区別されることができるので、フラッドフィルアルゴリズムは、ユーザの入力を介して動的に、又はハードコード化された様式で、乳頭筋をセグメンテーションから除外するように定式化され得る。拡張末期の心内膜セグメンテーションにおいて乳頭筋を含めるためにフラッドフィルを使用してもよいが、収縮末期では、乳頭筋の大部分が心筋に接続されている(そのため、2つの領域が互いにほとんど区別できない)ので、フラッドフィルは、心内膜セグメンテーション内に乳頭筋を含めるために使用され得ない。
収縮末期の心筋から乳頭筋を区別することができないことに加えて、フラッドフィルの主要な欠点は、完全に手動のセグメンテーションに比較されると、それはセグメンテーションプロセスに必要とされる手間をかなり減らすことができるが、フラッドフィル勾配及び距離閾値を動的に決定するために、それは依然として多くのユーザ入力を必要とすることである。フラッドフィルツールを使用して精密なセグメンテーションが作成され得るが、許容可能な臨床精度でそれらを作成するには、依然としてかなりの手動調整を要することを本出願人は見出した。
(短軸ビューにおいて基本スライスをセグメント化する課題)
心臓のセグメンテーションは、典型的には短軸又はSAXスタックからの画像上で作成される。SAXスタック上でセグメンテーションを行う1つの主要な欠点は、SAX平面が僧帽弁及び三尖弁の平面にほぼ平行なことである。これは2つの影響を有する。第1に、これらの弁はSAXスタックのスライス上で区別することが非常に難しい。第2に、SAXスタックが弁平面に正確に平行ではないと想定すると、部分的に心室にあり部分的に心房にある心臓の底部の近くに少なくとも1つのスライスがあることになる。
左心室と左心房の両方が単一のスライス内に見える例示的なケースが、図4の画像400a及び400bに示されている。臨床医が対応するLAXビューに投影された現在のSAXスライスを参照できなかった場合、SAXスライスが心室と心房の両方にわたることは明らかではないことがある。さらに、LAXビューが利用可能であっても、心室及び心房が同様の信号強度を有するので、SAXスライス上で、弁が配置された場所、ひいては心室のセグメンテーションが終了すべき場所を知ることは困難であり得る。従って、心臓の底部近くのセグメンテーションは、心室セグメンテーションの主要なエラー源の1つである。
(ランドマーク)
心臓イメージングアプリケーションの4Dフローワークフローでは、異なる心臓ビュー(例えば、2CH、3CH、4CH、SAX)を見て心室をセグメント化するために、ユーザは、心臓における異なるランドマークの領域を定義するように要求され得る。LVをセグメント化し、2CH、3CH、及び4CH左心ビューを見るために必要とされるランドマークは、LV尖部、僧帽弁、及び大動脈弁を含む。RVをセグメント化し、対応するビューを見るために必要とされるランドマークは、RV尖部、三尖弁、及び肺動脈弁を含む。
Figure 0006993334000001
LandMarkDetectの1つの制限は、欠損しているランドマークに対処する方法がないことである。すべての単一ランドマークが各画像上に正確に配置されていると仮定されている。別の制限は、カーネル及びレイヤサイズを除いて、ハイパーパラメータ探索が存在しないことである。さらに別の制限は、学習するためのパラメータを有しない固定されたアップサンプリングレイヤである。さらに、LandMarkDetectは、3D画像の平均値を取り除く(すなわち、入力データをセンタリングする)ことからなる制限された前処理戦略に依存している。
従って、上述された欠点の一部又はすべてに対処するシステム及び方法が必要とされる。
機械学習システムは、プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、少なくとも1つのプロセッサは、複数のバッチ(batch)のラベル付けされた画像セットを備える学習データを受け取ることであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、画像セットの各画像において描かれた解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、受け取ることと、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることと、トレーニングされたCNNモデルを、機械学習システムの少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することとを行うものとして要約され得る。CNNモデルは、収縮経路及び拡張経路を備えることができ、収縮経路は、いくつかの畳み込み(Convolution)レイヤ及びいくつかのプーリングレイヤを含むことができ、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含むことができ、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み(Transpose Convolution)操作を備える。各アップサンプリングレイヤに続いて、CNNモデルは、スキップ接続(Skip Connection)を介して収縮経路における対応するレイヤからの特徴マップの連結を含むことができる。画像データは、心周期全体にわたる1つ又は複数の時点における心臓を表すことができる。画像データは、超音波データ又は可視光写真データを含むことができる。CNNモデルは、1と2000の間の個数の特徴マップを有する第1の畳み込みレイヤを含むことができる収縮経路を含むことができる。CNNモデルは、いくつかの畳み込みレイヤを備えることができ、各畳み込みレイヤは、サイズ3×3及び1のストライドの畳み込みカーネルを含むことができる。CNNモデルは、いくつかのプーリングレイヤを備えることができ、各プーリングレイヤは、2のストライドを有する2×2最大プーリングレイヤを備えることができる。CNNモデルは、4つのプーリングレイヤ及び4つのアップサンプリングレイヤを含むことができる。CNNモデルは、いくつかの畳み込みレイヤを含むことができ、CNNモデルは、ゼロパディング操作を使用して各畳み込みレイヤへの入力をパディングすることができる。CNNモデルは、複数の非線形活性化関数レイヤを含むことができる。
少なくとも1つのプロセッサは、複数のバッチのラベル付けされた画像セットにおける画像データの少なくとも一部の修正を介して、学習データを補強することができる。
少なくとも1つのプロセッサは、水平フリップ、垂直フリップ、切り取り量(shear amount)、シフト量、ズーム量、回転量、輝度レベル、又はコントラストレベルのうちの少なくとも1つに応じて、複数のバッチのラベル付けされた画像セットにおける画像データの少なくとも一部を修正することができる。
CNNモデルは、少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶された複数のハイパーパラメータを含むことができ、少なくとも1つのプロセッサは、複数の構成に従ってCNNモデルを構成することであって、各構成は、ハイパーパラメータの値の異なる組み合わせを備える、構成することと、複数の構成の各々について、CNNモデルの精度を検証することと、検証により決定された精度に少なくとも部分的に基づいて、少なくとも1つの構成を選択することとを行うことができる。
少なくとも1つのプロセッサは、各画像セットについて、画像セットが解剖構造の複数の部分のいずれかに対するラベルを欠損しているかどうかを識別し、少なくとも1つのラベルを欠損していると識別された画像セットについて、識別された欠損ラベルを説明するようにトレーニング損失関数を修正することができる。画像データは、ボリューム測定用(volumetric)画像を含むことができ、各ラベルは、ボリューム測定用ラベルマスク又は輪郭を含むことができる。CNNモデルの各畳み込みレイヤは、サイズN×N×Kピクセルの畳み込みカーネルを含むことができ、N及びKは、正の整数である。CNNモデルの各畳み込みレイヤは、サイズN×Mピクセルの畳み込みカーネルを含むことができ、N及びMは、正の整数である。画像データは、心周期全体にわたる1つ又は複数の時点における心臓を表することができ、複数のバッチのラベル付けされた画像セットのサブセットは、乳頭筋を除外したラベルを含むことができる。各処理された画像について、CNNモデルは、空間に関して処理された画像に隣接するか、又は時間に関して処理された画像に隣接するかの少なくとも一方であり得る少なくとも1つの画像についてのデータを利用することができる。各処理された画像について、CNNモデルは、空間に関して処理された画像に隣接できる少なくとも1つの画像についてのデータを利用することができ、時間に関して処理された画像に隣接する少なくとも1つの画像についてのデータを利用することができる。各処理された画像について、CNNモデルは、時間情報又は位相情報のうちの少なくとも1つを利用することができる。画像データは、定常自由歳差運動(steady-state free precession:SSFP)磁気共鳴イメージング(MRI)データ又は4DフローMRIデータのうちの少なくとも1つを含むことができる。
機械学習システムを動作させる方法は、プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶することができる少なくとも1つの非一時的プロセッサ可読記憶媒体と、少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備えることができ、少なくとも1つのプロセッサによって、複数のバッチのラベル付けされた画像セットを備える学習データを受け取るステップであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、画像セットの各画像において描かれた解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、ステップと、少なくとも1つのプロセッサによって、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングするステップと、少なくとも1つのプロセッサによって、トレーニングされたCNNモデルを、機械学習システムの少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶するステップとを含むものとして要約され得る。CNNモデルをトレーニングするステップは、収縮経路及び拡張経路を備えるCNNモデルをトレーニングするステップを含み、収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含むことができ、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含むことができ、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備えることができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、各アップサンプリングレイヤに続いて、CNNモデルは、スキップ接続を介して収縮経路における対応するレイヤからの特徴マップの連結を含むことができる。学習データを受け取るステップは、心周期全体にわたる1つ又は複数の時点における心臓を表すことができる画像データを受け取るステップを含むことができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、CNNモデルは、1と2000の間の個数の特徴マップを有する第1の畳み込みレイヤを含むことができる収縮経路を含むことができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように複数の畳み込みレイヤを含むことができるCNNモデルをトレーニングするステップを含むことができ、各畳み込みレイヤは、サイズ3×3及び1のストライドの畳み込みカーネルを含むことができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように複数のプーリングレイヤを含むことができるCNNモデルをトレーニングするステップを含むことができ、各プーリングレイヤは、2のストライドを有する2×2最大プーリングレイヤを備えることができる。
CNNモデルは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、CNNモデルは、4つのプーリングレイヤ及び4つのアップサンプリングレイヤを含むことができる。
CNNモデルは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように複数の畳み込みレイヤを含むことができるCNNモデルをトレーニングするステップを含むことができ、CNNモデルは、ゼロパディング操作を使用して各畳み込みレイヤへの入力をパディングすることができる。
CNNモデルは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、CNNモデルは、複数の非線形活性化関数レイヤを含むことができる。
方法は、少なくとも1つのプロセッサによって、複数のバッチのラベル付けされた画像セットにおける画像データの少なくとも一部の修正を介して、学習データを補強するステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、水平フリップ、垂直フリップ、切り取り量、シフト量、ズーム量、回転量、輝度レベル、又はコントラストレベルのうちの少なくとも1つに応じて、複数のバッチのラベル付けされた画像セットにおける画像データの少なくとも一部を修正するステップをさらに含むことができる。
CNNモデルは、少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶された複数のハイパーパラメータを含むことができ、少なくとも1つのプロセッサによって、複数の構成に従ってCNNモデルを構成するステップであって、各構成は、ハイパーパラメータの値の異なる組み合わせを備える、ステップと、複数の構成の各々について、少なくとも1つのプロセッサによって、CNNモデルの精度を検証するステップと、少なくとも1つのプロセッサによって、検証により決定された精度に少なくとも部分的に基づいて、少なくとも1つの構成を選択するステップとをさらに含むことができる。
方法は、各画像セットについて、少なくとも1つのプロセッサによって、画像セットが解剖構造の複数の部分のいずれかに対するラベルを欠損しているかどうかを識別するステップと、少なくとも1つのラベルを欠損していると識別された画像セットについて、少なくとも1つのプロセッサによって、識別された欠損ラベルを説明するようにトレーニング損失関数を修正するステップとをさらに含むことができる。学習データを受け取るステップは、ボリューム測定用画像を含むことができる画像データを受け取るステップを含みことができ、各ラベルは、ボリューム測定用ラベルマスク又は輪郭を含むことができる。
CNNモデルは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように複数の畳み込みレイヤを含むことができるCNNモデルをトレーニングするステップを含むことができ、CNNモデルの各畳み込みレイヤは、サイズN×N×Kピクセルの畳み込みカーネルを含むことができ、N及びKは、正の整数である。
CNNモデルは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するように複数の畳み込みレイヤを含むことができるCNNモデルをトレーニングするステップを含むことができ、CNNモデルの各畳み込みレイヤは、サイズN×Mピクセルの畳み込みカーネルを含むことができ、N及びMは、正の整数である。学習データを受け取るステップは、心周期全体にわたる1つ又は複数の時点における心臓を表す画像データを受け取るステップを含むことができ、複数のバッチのラベル付けされた画像セットのサブセットは、乳頭筋を除外したラベルを含むことができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、各処理された画像について、CNNモデルは、空間に関して処理された画像に隣接するか、又は時間に関して処理された画像に隣接するかの少なくとも一方である少なくとも1つの画像についてのデータを利用することができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、各処理された画像について、CNNモデルは、空間に関して処理された画像に隣接する少なくとも1つの画像についてのデータを利用し、時間に関して処理された画像に隣接する少なくとも1つの画像についてのデータを利用することができる。CNNモデルをトレーニングするステップは、受け取られた学習データを利用して解剖構造の少なくとも一部分をセグメント化するようにCNNモデルをトレーニングするステップを含むことができ、各処理された画像について、CNNモデルは、時間情報又は位相情報のうちの少なくとも1つを利用することができる。学習データを受け取るステップは、定常自由歳差運動(SSFP)磁気共鳴イメージング(MRI)データ又は4DフローMRIデータのうちの少なくとも1つを含むことができる画像データを受け取るステップを含むことができる。
機械学習システムは、プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、少なくとも1つのプロセッサは、解剖構造を表す画像データを受け取ることと、完全畳み込みニューラルネットワーク(CNN)モデルを介して、受け取られた画像データを処理して、画像データの各画像の各ピクセルについてのクラス毎の確率を生成することであって、各クラスは、画像データにより表される解剖構造の複数の部分のうちの1つに対応する、生成することと、画像データの各画像について、生成されたクラス毎の確率を使用して、複数のクラスの各々についての確率マップを生成することと、生成された確率マップを、少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することとを行うものとして要約され得る。CNNモデルは、収縮経路及び拡張経路を備えることができ、収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含むことができ、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含むことができ、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備えることができる。画像データは、心周期全体にわたる1つ又は複数の時点における心臓を表すことができる。
少なくとも1つのプロセッサは、生成された確率マップに少なくとも部分的に基づいて、解剖構造の複数の部分のうちの少なくとも1つの標識をディスプレイ上に自律的に表示させることができる。少なくとも1つのプロセッサは、処理された画像データを後処理して、少なくとも1つの物理的制約が満たされることを保証することができる。心周期全体にわたる1つ又は複数の時点における心臓を表すことができ、少なくとも1つの物理的制約は、心筋のボリュームがすべての時点で同じであること、又は右心室と左心室が互いに重なることができないことのうちの少なくとも一方を含むことができる。少なくとも1つのプロセッサは、画像データの各画像について、各ピクセルのクラスを最も高い確率を有するクラスに設定することによって、複数の確率マップをラベルマスクに変換することができる。少なくとも1つのプロセッサは、画像データの各画像について、各ピクセルのクラスを、ピクセルについてのクラス確率のすべてが、決定された閾値を下回るときに、背景クラスに設定することができる。少なくとも1つのプロセッサは、画像データの各画像について、各ピクセルのクラスを、ピクセルが、そのピクセルが関連付けられたクラスの最大の接続された領域の部分ではないときに、背景クラスに設定することができる。少なくとも1つのプロセッサは、画像データに対するラベルマスクの各々をそれぞれのスプライン輪郭に変換することができる。少なくとも1つのプロセッサは、生成された輪郭を画像データと共にディスプレイ上に自律的に表示させることができる。少なくとも1つのプロセッサは、表示された輪郭のうちの少なくとも1つについてのユーザ修正を受け取り修正された輪郭を少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することができる。少なくとも1つのプロセッサは、生成された輪郭を利用して、解剖構造の複数の部分のうちの少なくとも1つのボリュームを決定することができる。解剖構造は、心臓を含むことができ、少なくとも1つのプロセッサは、生成された輪郭を利用して、心周期の複数の時点における心臓の複数の部分のうちの少なくとも1つのボリュームを決定することができる。少なくとも1つのプロセッサは、心周期の複数の時点のうちのどれが心周期の収縮末期フェーズ及び拡張末期フェーズに対応するかを、それぞれ最小ボリューム及び最大ボリュームを有すると決定された時点に基づいて自動的に決定することができる。少なくとも1つのプロセッサは、解剖構造の複数の部分のうちの少なくとも1つの決定されたボリュームをディスプレイ上に表示させることができる。画像データは、ボリューム測定用画像を含むことができる。CNNモデルの各畳み込みレイヤは、サイズN×N×Kピクセルの畳み込みカーネルを含むことができ、N及びKは、正の整数である。
機械学習システムを動作させる方法は、プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備えることができ、少なくとも1つのプロセッサによって、解剖構造を表す画像データを受け取るステップと、少なくとも1つのプロセッサによって、完全畳み込みニューラルネットワーク(CNN)モデルを介して、受け取られた画像データを処理して、画像データの各画像の各ピクセルについてのクラス毎の確率を生成するステップであって、各クラスは、画像データにより表される解剖構造の複数の部分のうちの1つに対応する、ステップと、画像データの各画像について、少なくとも1つのプロセッサによって、生成されたクラス毎の確率を使用して、複数のクラスの各々についての確率マップを生成するステップと、少なくとも1つのプロセッサによって、生成された確率マップを、少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶するステップとを含むものとして要約され得る。CNNモデルを介して受け取られた画像データを処理するステップは、収縮経路及び拡張経路を備えることができるCNNモデルを介して受け取られた画像データを処理するステップを含むことができ、収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含むことができ、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含むことができ、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備えることができる。画像データを受け取るステップは、心周期全体にわたる1つ又は複数の時点における心臓を表す画像データを受け取るステップを含むことができる。
方法は、少なくとも1つのプロセッサによって、生成された確率マップに少なくとも部分的に基づいて、解剖構造の複数の部分のうちの少なくとも1つの標識をディスプレイ上に自律的に表示させるステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、処理された画像データを後処理して、少なくとも1つの物理的制約が満たされることを保証するステップをさらに含むことができる。画像データを受け取るステップは、心周期全体にわたる1つ又は複数の時点における心臓を表すことができる画像データを受け取るステップを含むことができ、少なくとも1つの物理的制約は、心筋のボリュームがすべての時点で同じであること、又は右心室と左心室が互いに重なることができないことのうちの少なくとも一方を含むことができる。
方法は、画像データの各画像について、少なくとも1つのプロセッサによって、各ピクセルのクラスを最も高い確率を有するクラスに設定することによって、複数の確率マップをラベルマスクに変換するステップをさらに含むことができる。
方法は、画像データの各画像について、少なくとも1つのプロセッサによって、各ピクセルのクラスを、ピクセルについてのクラス確率のすべてが、決定された閾値を下回るときに、背景クラスに設定するステップをさらに含むことができる。
方法は、画像データの各画像について、少なくとも1つのプロセッサによって、各ピクセルのクラスを、ピクセルが、ピクセルが関連付けられたクラスの最大の接続された領域の部分ではないときに、背景クラスに設定するステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、画像データに対するラベルマスクの各々をそれぞれのスプライン輪郭に変換するステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、生成された輪郭を画像データと共にディスプレイ上に自律的に表示させるステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、表示された輪郭のうちの少なくとも1つのユーザ修正を受け取るステップと、少なくとも1つのプロセッサによって、修正された輪郭を少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶するステップとをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、生成された輪郭を利用して、解剖構造の複数の部分のうちの少なくとも1つのボリュームを決定するステップをさらに含むことができる。
解剖構造は、心臓を含むことができ、方法は、少なくとも1つのプロセッサによって、生成された輪郭を利用して、心周期の複数の時点における心臓の複数の部分のうちの少なくとも1つのボリュームを決定するステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、心周期の複数の時点のうちのどれが心周期の収縮末期フェーズ及び拡張末期フェーズに対応するかを、それぞれ最小ボリューム及び最大ボリュームを有すると決定された時点に基づいて自動的に決定するステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、解剖構造の複数の部分のうちの少なくとも1つの決定されたボリュームをディスプレイ上に表示させるステップをさらに含むことができる。画像データを受け取るステップは、ボリューム測定用画像データを受け取るステップを含むことができる。CNNモデルを介して受け取られた画像データを処理するステップは、各畳み込みレイヤがサイズN×N×Kピクセルの畳み込みカーネルを含むことができ、N及びKが正の整数である、CNNモデルを介して、受け取られた画像データを処理するステップを含むことができる。
機械学習システムは、プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、少なくとも1つのプロセッサは、複数のセットの3D MRI画像を受け取ることであって、複数のセットの各々における画像は、患者の解剖構造を表す、受け取ることと、複数のセットの3D MRI画像についての複数のアノテーション(Annotation)を受け取ることであって、各アノテーションは、対応する画像において描かれた患者の解剖構造のランドマークを示す、受け取ることと、3D MRI画像を利用して複数のランドマークの位置を予測するように畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることと、トレーニングされたCNNモデルを、機械学習システムの少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することとを行うものとして要約され得る。少なくとも1つのプロセッサは、3D MRI画像を利用して複数のランドマークの位置を予測するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることができる。少なくとも1つのプロセッサは、1つ又は複数のセットの空間座標である出力を有するCNNモデルをトレーニングすることができ、1つ又は複数の空間座標の各セットは、複数のランドマークのうちの1つの位置を識別する。CNNモデルは、1つ又は複数の全接続レイヤに後続される収縮経路を含むことができる。CNNモデルは、収縮経路及び拡張経路を備えることができ、収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含むことができ、各プーリングレイヤは、1つ又は複数の畳み込みレイヤによって先行され、拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含むことができ、各アップサンプリングレイヤは、1つ又は複数の畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備える。
少なくとも1つのプロセッサは、解剖構造の1つ又は複数のランドマークの各々について、受け取られたセットの3D MRI画像及び受け取られた複数のアノテーションに少なくとも部分的に基づいて、3Dラベルマップを定義することができ、各3Dラベルマップは、ランドマークが3Dラベルマップ上の特定の位置に配置されている可能性を符号化することができ、少なくとも1つのプロセッサは、3D MRI画像及び生成された3Dラベルマップを利用して1つ又は複数のランドマークをセグメント化するようにCNNモデルをトレーニングすることができる。複数のセットの各々における画像は、心周期の異なるそれぞれの時点における患者の心臓を表すことができ、各アノテーションは、対応する画像において描かれた患者の心臓のランドマークを示すことができる。
少なくとも1つのプロセッサは、3D MRI画像のセットを受け取り、CNNモデルを介して、受け取られた3D MRI画像を処理して、1つ又は複数のランドマークのうちの少なくとも1つを検出し、複数のランドマークのうちの検出された少なくとも1つをディスプレイ上に提示されるようにすることができる。少なくとも1つのプロセッサは、CNNモデルを介して、受け取られた3D MRI画像を処理し、ポイント又はラベルマップのうちの少なくとも1つを出力することができる。少なくとも1つのプロセッサは、CNNモデルを介して、受け取られた3D MRI画像を処理して、複数の時点において複数のランドマークのうちの少なくとも1つを検出し、複数の時点における複数のランドマークのうちの検出された少なくとも1つをディスプレイ上に提示されるようにすることができる。CNNモデルは、受け取られた3D MRI画像に関連付けられた位相情報を利用することができる。
機械学習システムを動作させる方法は、プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶することができる少なくとも1つの非一時的プロセッサ可読記憶媒体と、少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備えることができ、少なくとも1つのプロセッサによって、複数のセットの3D MRI画像を受け取るステップであって、複数のセットの各々における画像は、患者の解剖構造を表す、ステップと、少なくとも1つのプロセッサによって、複数のセットの3D MRI画像についての複数のアノテーションを受け取るステップであって、各アノテーションは、対応する画像において描かれた患者の解剖構造のランドマークを示す、ステップと、少なくとも1つのプロセッサによって、3D MRI画像を利用して複数のランドマークの位置を予測するように畳み込みニューラルネットワーク(CNN)モデルをトレーニングするステップと、少なくとも1つのプロセッサによって、トレーニングされたCNNモデルを、機械学習システムの少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶するステップとを含むものとして要約され得る。CNNモデルをトレーニングするステップは、3D MRI画像を利用して複数のランドマークの位置を予測するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングするステップを含むことができる。CNNモデルをトレーニングするステップは、1つ又は複数のセットの空間座標である出力を有するCNNモデルをトレーニングするステップを含むことができ、1つ又は複数の空間座標の各セットは、複数のランドマークのうちの1つの位置を識別する。CNNモデルをトレーニングするステップは、1つ又は複数の全接続レイヤに後続される収縮経路を含むことができるCNNモデルをトレーニングするステップを含むことができる。CNNモデルをトレーニングするステップは、収縮経路及び拡張経路を備えることができるCNNモデルをトレーニングするステップを含むことができ、収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含むことができ、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含むことができ、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備える。
方法は、解剖構造の複数のランドマークの各々について、少なくとも1つのプロセッサによって、受け取られたセットの3D MRI画像及び受け取られた複数のアノテーションに少なくとも部分的に基づいて、3Dラベルマップを定義するステップをさらに含むことができ、各3Dラベルマップは、ランドマークが3Dラベルマップ上の特定の位置に配置されている可能性を符号化し、複数のセットの3D MRI画像を受け取るステップは、複数のセットの3D MRI画像を受け取るステップを含むことができ、複数のセットの各々における画像が、心周期の異なるそれぞれの時点における患者の心臓を表すことができ、各アノテーションが、対応する画像において描かれた患者の心臓のランドマークを示すことができる。
方法は、少なくとも1つのプロセッサによって、3D MRI画像のセットを受け取るステップと、少なくとも1つのプロセッサによって、CNNモデルを介して、受け取られた3D MRI画像を処理して、複数のランドマークのうちの少なくとも1つを検出するステップと、少なくとも1つのプロセッサによって、複数のランドマークのうちの検出された少なくとも1つをディスプレイ上に提示されるようにするステップをさらに含むことができる。
方法は、少なくとも1つのプロセッサによって、CNNモデルを介して、受け取られた3D MRI画像を処理して、複数の時点において複数のランドマークのうちの少なくとも1つを検出するステップと、少なくとも1つのプロセッサによって、複数の時点における複数のランドマークのうちの検出された少なくとも1つをディスプレイ上に提示されるようにするステップをさらに含むことができる。
CNNモデルをトレーニングするステップは、受け取られた3D MRI画像に関連付けられた位相情報を利用することができるCNNモデルをトレーニングするステップを含むことができる。
図面では、同一の参照番号が同様の要素又は行為を識別する。図面における要素のサイズ及び相対位置は、必ずしも原寸通りに描かれていない。例えば、様々な要素及び角度の形状は必ずしも原寸通りではなく、これらの要素の一部は、図面明瞭性を改善するために任意に拡大及び位置調整されることがある。さらに、描かれる要素の具体的な形状は、具体的な要素の実際の形状に関する何らかの情報を伝えるように必ずしも意図されておらず、単に図面での認識を容易にするように選択されていることがある。
完全なSAX(短軸)スタックにわたる単一の時点におけるいくつかのLV心内膜セグメンテーションの例を示す図であり、左から右へ、上から下へ、スライスが左心室の尖部から左心室の基底へ進んでいく様子を示している。 スネークアルゴリズムを使用して生成されたLV心内膜輪郭の例を示す図である。 左心室心内膜の内部における心室、心筋、及び乳頭筋を示す2つのSSFP画像を示す図であり、左のSSFP画像は拡張末期を示し、右のSSFP画像は収縮末期を示す。 SAX平面において基底スライス上で心室と心房を区別する課題を示す2つの画像を示す図である。 LandMarkDetectで使用されるU-Netネットワークアーキテクチャの図である。 1つの例示された実装形態による、プーリングレイヤ当たり2つの畳み込みレイヤと4つのプーリング/アップサンプリング操作を有するDeep Ventricleネットワークアーキテクチャの図である。 1つの例示された実装形態による、SSFPデータを用いるトレーニングのためのライトニングメモリマップデータベース(lightning memory-mapped database:LMDB)の作成についてのフロー図である。 1つの例示された実装形態による、畳み込みニューラルネットワークモデルをトレーニングするためのパイプラインプロセスのフロー図である。 1つの例示された実装形態による、SSFPデータ用の推定パイプラインのためのプロセスを例示するフロー図である。 1つの時点及びスライスインデックスにおけるLV endoについてのアプリケーション内SSFP推定結果のスクリーンショットを示す図である。 1つの時点及びスライスインデックスにおけるLV epiについてのアプリケーション内SSFP推定結果のスクリーンショットを示す図である。 1つの時点及びスライスインデックスにおけるRV endoについてのアプリケーション内SSFP推定結果のスクリーンショットを示す図である。 自動的にセグメント化された心室からのアプリケーション内SSFP計算パラメータのスクリーンショットを示す図である。 SAXスタックの平面を示す平行線を有する2、3、及び4チャンバービューを示すスクリーンショットを示す図である。 左パネルで、右心室に平行でないセグメンテーション平面の系列を示す2、3、及び4チャンバービューを描き、右パネルで、2、3、及び4チャンバービューで見られる強調された平面に沿った再構成された画像を示すスクリーンショットを示す図である。 RVのセグメント化を例示するスクリーンショットを示す図であり、輪郭におけるポイント(右パネル)はスプラインを定義しデータベースに記憶されるものであり、輪郭はLAXビュー(左パネル)に投影される。 図16と同じRVスライスのセグメント化を例示するが、2、3、及び4チャンバービューの各々が奥行き効果でセグメンテーション平面を強調するように少し回転された、スクリーンショットを示す図である。 1つの例示された実装形態による、4Dフローデータを用いてトレーニングするためのライトニングメモリマップデータベース(LMDB)の作成を例示する概略図である。 SAX平面、利用可能なラベル、及び画像データから生成された、多断面再構成(左上)、RV endoマスク(右上)、LV epiマスク(左下)、及びLV endoマスク(右下)を示す図であり、これらのマスクは1つのアレイに記憶されてよく、画像と共に1つの固有キーでLMDBに記憶されてよい。 LV epiマスクが欠損していることを除いて図19の図と同様の図である。 1つの例示された実装形態による、4Dフロー用の推定パイプラインを例示するフロー図である。 4Dフロー検査でのLV endoについてのアプリケーション内推定を示すスクリーンショットを示す図である。 4Dフロー検査でのLV epiについてのアプリケーション内推定を示すスクリーンショットを示す図である。 4Dフロー検査でのRV endoについてのアプリケーション内推定を示すスクリーンショットを示す図である。 1つの例示された実装形態による、ウェブアプリケーションを使用した左心室尖部(LVA)の位置特定を例示するスクリーンショットを示す図である。 1つの例示された実装形態による、ウェブアプリケーションを使用した右心室尖部(RVA)の位置特定を例示するスクリーンショットを示す図である。 1つの例示された実装形態による、ウェブアプリケーションを使用した僧帽弁(MV)の位置特定を例示するスクリーンショットを示す図である。 1つの例示された実装形態による、トレーニングデータベースの作成のためのプロセスを例示するフロー図である。 画像上で評価されたガウシアンを有する画像上のランドマーク位置の符号化を例示する図である。 1つの例示された実装形態による、画像及びランドマークのための前処理パイプラインのフロー図である。 1人の患者についての前処理された入力画像及び符号化された僧帽弁ランドマークの例を示す複数のスクリーンショットを示す図であり、上から下へ、左から右へ、サジタル、アキシャル、及び冠状ビューが示されている。 1人の患者についての前処理された入力画像及び符号化された三尖弁ランドマークの例を示す複数のスクリーンショットを示す図であり、上から下へ、左から右へ、サジタル、アキシャル、及び冠状ビューが示されている。 ネットワーク出力からのランドマーク位置の予測を例示する図である。 解剖学的画像に重ねられた流れ情報を示す例示的な画像を示す図である。 1つの非限定的な例示された実装形態による、本明細書に説明された機能のうちの1つ又は複数を実装するために使用される例示的なプロセッサベースのデバイスのブロック図である。
以下の説明では、様々な開示されている実装形態の完全な理解を提供するために、いくつかの特定の詳細が説明される。しかしながら、これら特定の詳細の1つ又は複数を伴わずに、又は他の方法、構成要素、材料などと共に実装形態が実施され得ることは、当業者には理解されよう。他の例では、コンピュータシステム、サーバコンピュータ、及び/又は通信ネットワークに関連付けられたよく知られている構造は、実装形態の説明を不必要に曖昧にすることを避けるために詳細に図示又は説明されていない。
文脈で別段の要求がない限り、明細書及び続く特許請求の範囲を通して、「備える、有する」という単語は、「含む」と同義であり、包含的又はオープンエンドである(すなわち、追加の記載されていない要素又は方法行為を除外しない)。
本明細書を通して「一実装形態」又は「実装形態」への言及は、実装形態に関連して説明される具体的な特徴、構造、又は特性が少なくとも1つの実装形態に含まれることを意味する。従って、本明細書を通して様々な箇所における「一実装形態では」又は「実装形態では」という表現の出現は、必ずしもすべてが同じ実装形態に言及しているわけではない。さらに、具体的な特徴、構造、又は特性は、1つ又は複数の実装形態において任意の適切な様式で組み合わされ得る。
本明細書及び添付された特許請求の範囲で使用される場合、単数形「a」、「an」、及び「the」は、文脈で別段に明確に指示しない限り、複数の指示対象を含む。「又は」という用語は、文脈で別段に明確に指示しない限り、「及び/又は」を含む意味で一般に利用されることにも留意されたい。
本明細書で提供される本開示の見出し及び要約書は、単に便宜のためであり、実装形態の範囲又は意義を解釈するものではない。
(SSFP自動化された心室セグメンテーション)
(Deep Ventricleアーキテクチャ)
図6は、心臓SSFP検査における心室セグメンテーションに利用される、本明細書ではDeep Ventricleと呼ばれる畳み込みニューラルネットワーク(CNN)アーキテクチャ600を示す。ネットワーク600は、2つの経路を含み、すなわち、左側は、畳み込みレイヤ606とプーリングレイヤ608とを含む収縮経路602であり、右側は、アップサンプリング又は転置畳み込みレイヤ610と畳み込みレイヤ606とを含む拡張経路604である。
ネットワーク600における自由パラメータの数は、モデルのエントロピー容量を決定し、エントロピー容量は、本質的にモデルが覚えることができる情報の量である。これらの自由パラメータのかなりの部分は、ネットワーク600における各レイヤの畳み込みカーネルに存在する。ネットワーク600は、各プーリングレイヤ608の後に、特徴マップの数が倍になり、空間解像度が半分にされるように構成される。各アップサンプリングレイヤ610の後、特徴マップの数が半分にされ、空間解像度が倍にされる。この方式では、ネットワーク600にわたる各レイヤについての特徴マップの数は、第1のレイヤの数(例えば、1と2000の間の個数の特徴マップ)によって完全に記述され得る。少なくともいくつかの実装形態では、第1のレイヤにおける特徴マップの数は128である。追加の特徴マップを使用すると、計算複雑性、メモリ使用量、トレーニングされたモデルディスク使用量の増加の適度なコストで、モデルの精度を向上することが見出されている。トレーニングデータの量、及び利用可能な計算リソースとモデル性能との間の所望されるトレードオフによっては、初期特徴マップの数について他の値でも十分であり得る。
少なくともいくつかの実装形態では、ネットワーク600は、各プーリングレイヤ608の前に、サイズ3×3及びストライド1の畳み込みカーネルを有する2つの畳み込みレイヤ606を含む。これらのパラメータの異なる組み合わせ(レイヤの数、畳み込みカーネルサイズ、畳み込みストライド)が使用されてもよい。ハイパーパラメータ探索に基づいて、4つのプーリング及びアップサンプリング操作が検査中のデータに対して最も良く作用することが見出されたが、結果は、この数から中程度にしか影響されない。
入力画像に何らパディングを適用せずに(このパディングの欠落は「有効(valid)」パディングと呼ばれる)、1×1よりも大きい畳み込みは、(画像サイズ-畳み込みサイズ+1の)畳み込みのみで所与の画像にわたってフィットできるので、出力特徴マップのサイズを自然に小さくさせる。有効パディングを使用すると、出力セグメンテーションマップは、572×572ピクセルの入力画像に対して388×388ピクセルに過ぎない。従って、画像全体をセグメント化することは、タイリング手法を必要とし、元の画像の境界のセグメンテーションは不可能である。本開示の少なくともいくつかの実装形態によるネットワーク600では、すべての畳み込みの前に幅(畳み込みサイズ-2)のゼロパディングが利用され、従って、セグメンテーションマップが常に入力と同じ解像度である(「同じ(same)」パディングとして知られる)。有効パディングが使用されてもよい。
プーリング操作を用いる特徴マップのダウンサンプリングは、元の画像の空間内のより大きな視野を有する畳み込みによって、より高いレベルの抽象的特徴を学習するための重要なステップであり得る。少なくともいくつかの実装形態では、ネットワーク600は、畳み込みの各セットの後に、画像をダウンサンプリングするために、ストライド2を有する2×2最大プーリング操作を利用する。学習されたダウンサンプリング、すなわち、ストライド2を有する2×2畳み込みを用いる入力ボリュームの畳み込みが使用されてもよいが、それにより計算複雑性を増大する可能性がある。一般に、プーリングサイズとストライドの異なる組み合わせが使用されてもよい。
活性化ボリュームを元の解像度にアップサンプリングすることは、ピクセル単位のセグメンテーションのために完全畳み込みネットワークにおいて必要である。ネットワークにおける活性化ボリュームの解像度を増大させるために、いくつかのシステムでは、アップサンプリング操作、次いで2×2畳み込み、次いでスキップ接続を介する対応する収縮レイヤからの特徴マップの連結、最後に2つの3×3畳み込みを用いることができる。少なくともいくつかの実装形態では、ネットワーク600は、アップサンプリング及び2×2畳み込みを、学習されたカーネルを用いてアップサンプリング及び補間を行う単一の転置畳み込みレイヤ610に置き換えて、細かな詳細を解像するモデルの能力を改善する。その操作は、図6の収縮経路602から拡張経路604への太い矢印によって示されるようにスキップ接続連結によって後続される。この連結に続いて、2つの3×3畳み込みレイヤが適用される。
少なくともいくつかの実装形態では、正規化線形関数(rectified linear unit:ReLU)が、畳み込みに続くすべての活性化のために使用される。PReLU(パラメトリックReLU)及びELU(指数線形ユニット(exponential linear unit))を含む他の非線形活性化関数が使用されてもよい。
(モデルハイパーパラメータ)
モデルハイパーパラメータが、トレーニング中に読み込まれる少なくとも1つの非一時的プロセッサ可読記憶媒体(例えば、構成ファイル)に記憶され得る。モデルを記述するパラメータは、以下を含み得る。
・num_pooling_layers:プーリング(及びアップサンプリング)レイヤの総数、
・pooling_type:使用するプーリング操作のタイプ(例えば、max)、
・num_init_filters:第1のレイヤのフィルタ(畳み込みカーネル)の数、
・num_conv_layers:各プーリング操作の間の畳み込みレイヤの数、
・conv_kernel_size:畳み込みカーネルのピクセル単位のエッジ長、
・dropout_prob:特定のノードの活性化がネットワークを介したバッチの所与の順方向/逆方向パスでゼロに設定される確率、
・border_mode:畳み込み前に入力特徴マップをゼロパディングする方法、
・activation:各畳み込み後に使用する非線形活性化関数、
・weight_init:ネットワーク内で重みを初期化するための手段、
・batch_norm:ネットワークのダウンサンプリング/収縮部分における各非線形性の後にバッチ正規化を利用するか否か、
・batch_norm_momentum:特徴毎の平均及び標準偏差のバッチ正規化計算におけるモメンタム、
・down_trainable:ネットワークのダウンサンプリング部分が新しいデータを見ると学習することを可能にするかどうか、
・bridge_trainable:ブリッジ畳み込みが学習することを可能にするかどうか、
・up_trainable:ネットワークのアップサンプリング部分が学習することを可能にするかどうか、及び
・out_trainable:ピクセル単位確率を作成する最終畳み込みが学習することを可能にするかどうか。
使用するトレーニングデータを記述するパラメータは、以下を含み得る、
・crop_frac:元のものに対するLMDBにおける画像の部分サイズ、
・height:画像のピクセル単位の高さ、及び
・width:画像のピクセル単位の幅。
トレーニング中に使用するデータ補強を記述するパラメータは、以下を含み得る。
・horizontal_flip:水平方向に入力/ラベル対をランダムにフリップするかどうか、
・vertical_flip:垂直方向に入力/ラベル対をランダムにフリップするかどうか、
・shear_amount:画像/ラベル対をせん断する正/負の制限値、
・shift_amount:画像/ラベル対をシフトする最大分割値(max fractional value)、
・zoom_amount:画像/ラベル対においてズームインする最大分割値、
・rotation_amount:画像/ラベル対を回転する正/負の制限値、
・zoom_warping:ズーミングとワーピングを一緒に利用するかどうか、
・brightness:画像輝度を変更する正/負の制限値、
・contrast:画像コントラストを変更する正/負の制限値、及び
・alpha, beta:弾性変形の強度を記述する第1のパラメータ及び第2のパラメータ。
トレーニングを記述するパラメータは、以下を含む。
・batch_size:各順方向/逆方向パスでネットワークを示す例の数、
・max_epoch:データを通した反復の最大数、
・optimizer_name:使用するオプティマイザ関数の名前、
・optimizer_lr:学習率の値、
・objective: 使用する目的関数、
・early_stopping_monitor:いつモデルトレーニングがトレーニングを停止すべきかを決定するために監視するパラメータ、及び
・early_stopping_patience:モデルトレーニングを停止する前にearly_stopping_monitor値が改善しなくなった後に待機をするエポック(Epoch)の数。
最適モデルを選択するために、これらのハイパーパラメータに対してランダム探索が行われてよく、最も高い検証精度を有するモデルが選択されてよい。
(トレーニングデータベース)
少なくともいくつかの実装形態では、トレーニング用の前処理された画像/セグメンテーションマスク対を記憶するライトニングメモリマップデータベース(LMDB)が使用され得る。このデータベースアーキテクチャは、トレーニングデータを記憶する他の手段に対して多くの利点を持つ。そのような利点は、キーのマッピングが速度に関して辞書式(lexicographical for speed)であること、画像/セグメンテーションマスク対がトレーニングに必要とされるフォーマットで記憶されるので、それらがトレーニング時間にさらに前処理を必要としないこと、及び、画像/セグメンテーションマスク対を読み込むことが計算上安価なトランザクションであることを含む。
トレーニングデータは一般に、ディスク上の名前付けされたファイル、及び各画像のグランドトゥルース(Ground Truth)データベースからのマスクのリアルタイム生成を含む、様々な他のフォーマットで記憶され得る。これらの方法は、同じ結果を達成し得るが、トレーニングプロセスを遅くする可能性がある。
新しいLMDBが、モデルをトレーニングするために使用されるべき入力/ターゲットの各一意のセットに対して作成され得る。これは、画像前処理のためのトレーニング中に減速がないことを保証する。
(トレーニング中の欠損データの処置)
セル区別タスクの2つのクラス、すなわち前景モデル及び背景モデルのみに関心があった以前のモデルとは異なり、本明細書に開示されるSSFPモデルは、4つのクラス、すなわち、背景、LV心内膜、LV心外膜、及びRV心内膜を区別しようと試みる。これを達成するために、ネットワーク出力は、3つの確率マップ、すなわち非背景クラス毎に1つの確率マップを含むことができる。トレーニング中に、3つのクラスの各々についてのグランドトゥルースバイナリマスクが、ピクセルデータと共にネットワークに提供される。ネットワーク損失が、3つのクラスにわたる損失の合計として決定され得る。3つのグランドトゥルースマスクのいずれかが画像に対して欠損している(すなわち、グランドトゥルースが空のマスクではなく、データがないことを意味する)場合、そのマスクは損失を計算するときに無視されてよい。
欠損グランドトゥルースデータは、トレーニングプロセス中に明示的に計上される。例えば、LV心外膜及びRV心内膜輪郭位置が知られていなくても、LV心内膜輪郭が定義される画像上でネットワークがトレーニングされ得る。欠損データを計上できなかった、より基本的なアーキテクチャは、3つすべてのタイプの輪郭が定義されているトレーニング画像のサブセット(例えば、20%)に対してのみトレーニング可能であった。このようにトレーニングデータ量を減らした結果、精度がかなり低下される。従って、欠損データを説明するために損失関数を明示的に変更することによって、全トレーニングデータ量が使用され、ネットワークがよりロバストな特徴を学習することを可能にする。
(トレーニングデータベース作成)
図7は、SSFP LMDBの作成のためのプロセス700を示す。702では、輪郭情報がSSFPグランドトゥルースデータベース704から抽出される。これらの輪郭は、特定のSSFPスライス位置及び時点に関連付けられて、輪郭X位置及びY位置の辞書としてグランドトゥルースデータベース704に記憶される。706では、対応するSSFP DICOM(Digital Imaging and Communications in Medicine)画像708からのピクセルデータが、この情報から作成されたブール型マスク(Boolean mask)と対にされる。710では、システムは、画像を正規化し、画像/マスクをクロップし、画像/マスクをサイズ変更することによって、画像及びマスクを前処理する。少なくともいくつかの実装形態では、MRIは、それらが平均値0を有し、画像のバッチの第1及び第99パーセンタイル(the 1st and 99th percentile)が-0.5及び0.5であり、すなわち、それらの「使用可能範囲」は-0.5と0.5の間にあるように正規化される。心室輪郭が画像のより大きな割合を占めるように、画像がクロップ及びサイズ変更され得る。これは、より多くの総数の前景クラスピクセルをもたらし、心室の細かな詳細(特にコーナー)をより簡単に解像し、より小さい計算能力のみでモデルの収束を容易にする。
712では、SSFP LMDBの一意のキーが、系列インスタンスUID及びSOPインスタンスUIDの組み合わせとなるように定義される。714では、時点、スライスインデックス、及びLMDBキーを含む、画像及びマスクメタデータが、データフレームに記憶される。716では、正規化、クロップ、及びサイズ変更された画像、並びにクロップ及びサイズ変更されたマスクが、各キーについてLMDBに記憶される。
Deep Ventricleトレーニング
図8は、モデルトレーニングを例示するプロセス800を示す。少なくともいくつかの実装形態では、モデルをトレーニングするために、TensorFlowで構築されたオープンソースのラッパーであるKerasが使用され得る。しかしながら、同等の結果は、生のTensorFlow、Theano、Caffe、Torch、MXNet、MATLAB、又はテンソル数学用の他のライブラリを使用しても達成され得る。
少なくともいくつかの実装形態では、データセットは、トレーニングセット、検証セット、及びテストセットに分割され得る。トレーニングセットは、モデル勾配の更新のために使用され、検証セットは、(例えば、早期停止のための)トレーニング中に「ホールドアウトされた」データのモデルを評価するために使用され、テストセットは、トレーニングプロセスにおいてまったく使用されない。
802では、トレーニングが起動される。804では、画像及びマスクデータがLMDBトレーニングセットから一度に1バッチ読み込まれる。806では、少なくともいくつかの実装形態では、上述されたようにモデルハイパーパラメータファイルに記憶された歪みハイパーパラメータに従って、画像及びマスクが歪められる。808では、バッチがネットワークを介して処理される。810では、損失/勾配が計算される。810では、指定されたオプティマイザ及びオプティマイザ学習率に従って、重みが更新される。少なくともいくつかの実装形態では、ピクセル単位のクロスエントロピー損失関数及びAdam更新ルールを使用して、損失が計算され得る。
814では、システムは、エポックが完了したかどうかを決定することができる。エポックが完了しなかった場合、プロセスは、行為804に戻って、別のバッチのトレーニングデータを読み込む。816では、エポックが完了した場合、検証セットについて尺度が計算される。そのような尺度は、例えば、検証損失、検証精度、相対精度、多数派クラスのみを予測するナイーブモデルに対する相対精度、flスコア、精度、及びリコールを含み得る。
818では、モデルが改善したかを決定するために、検証損失が監視され得る。820では、モデルが改善した場合、その時のモデルの重みが保存され得る。822では、早期停止(early stopping)カウンタがゼロにリセットされ得、804で、別のエポックのトレーニングが始まることができる。検証損失以外の検証精度などの尺度も、評価モデル性能を示すために使用され得る。824では、モデルがエポックの後に改善しない場合、早期停止カウンタが1だけ増分される。826では、カウンタがその限界に達していない場合、804で別のエポックについてトレーニングが開始される。828では、カウンタがその限界(limit)に達した場合、モデルのトレーニングが停止される。この「早期停止」方法論は、過剰適合を防止するために使用されるが、例えば、より小さいモデルの利用、ドロップアウト又はL2正則化のレベルの増大など、他の過剰適合を防止する方法が存在する。
モデルをトレーニングするときに使用されるテストセットからのデータはない。テストセットからのデータは、セグメンテーションの例を示すために使用されてもよいが、この情報は、トレーニングのために、又はモデルを互いにランク付けするために使用されない。
(推定)
推定は、新しいデータについての予測のためのトレーニングされたモデルを利用するプロセスである。少なくともいくつかの実装形態では、ウェブアプリケーション(又は「ウェブアプリ」)が推定のために使用され得る。図9は、予測が新しいSSFP検査に対して行われ得る例示的なパイプライン又はプロセス900を表示する。902では、ユーザがウェブアプリケーションに検査をロードした後、ユーザが、(例えば、「欠損輪郭を生成する」アイコンをクリックすることによって)推定サービスを起動することができ、それにより、任意の欠損(まだ作成されていない)輪郭を自動的に生成する。そのような輪郭は、例えば、LV Endo、LV Epi、又はRV Endoを含むことができる。少なくともいくつかの実装形態では、推定は、検査がユーザによってアプリケーションにロードされたとき、又は検査がユーザによってサーバに最初にアップロードされたときに、自動的に起動され得る。推定がアップロード時に行われる場合、予測は、非一時的プロセッサ可読記憶媒体にその時に記憶され得るが、ユーザが検査を開くまでは表示されない。
推定サービスは、モデルをロードし、輪郭を生成し、それらをユーザへ表示することを担う。902で推定が起動された後、904で画像が推定サーバに送られる。906では、推定サービスによって使用される生成モデル又はネットワークが、推定サーバにロードされる。ネットワークは、ハイパーパラメータ探索中にトレーニングされたモデルのコーパスから事前に選択されていてよい。ネットワークは、精度、メモリ使用量、及び実行の速度の間のトレードオフに基づいて選ばれてもよい。あるいは、ユーザは、ユーザプリファレンスオプションによって「速い」又は「精密な」モデルの間の選択肢を与えられてもよい。
908では、一度に画像の1つのバッチが推定サーバによって処理される。910では、上述されたようにトレーニング中に利用された同じパラメータを使用して、画像が前処理(例えば、正規化、クロップ)される。少なくともいくつかの実装形態では、推定時間歪みが適用され、平均推定結果が、例えば、各入力画像の10個の歪んだコピーに基づいて得られる。この特徴は、輝度、コントラスト、向きなどの小さな変動に対してロバストである推定結果を作成する。
推定は、要求されたバッチにおけるスライス位置及び時点において行われる。912では、ネットワークを通る順方向パスが計算される。与えられた画像について、モデルは、順方向パス中の各ピクセルのクラス毎の確率を生成し、その結果、値が0から1の範囲であるクラス毎に1つの確率マップのセットをもたらす。確率マップは、各ピクセルのクラスを最も高いラベルマップ確率を有するクラスに設定することによって、単一のラベルマスクに変形される。
914では、システムは後処理を行うことができる。例えば、少なくともいくつかの実装形態では、ピクセルのすべての確率が0.5未満である場合、そのピクセルのピクセルクラスは、背景に設定される。さらに、偽の予測されたピクセルを除去するために、そのクラスの最大の接続された領域の部分ではないラベルマップにおけるいずれのピクセルも背景に変換され得る。少なくともいくつかの実装形態では、時間及び空間で近隣のセグメンテーションマップを比較し異常値を除去することによって、偽のピクセルが除去され得る。あるいは、例えば、RVが心臓の基底近くで非凸であるので、与えられた心室が、2つの異なる接続された領域として1つのスライスに時として出現し得るので、複数の接続された領域は許容され得るが、小さな領域、又はスライス位置及び時間にわたるすべての検出された領域の重心から離れた領域が除去され得る。
少なくともいくつかの実装形態では、1つ又は複数の物理的制約を満たすための後処理が、914で行われ得る。例えば、後処理は、心筋ボリュームがすべての時点で同じであることを保証することができる。これを達成するために、システムは、心内膜及び心外膜確率マップを2値化するために使用される閾値を、それらを輪郭に変換する前に動的に調整することができる。閾値は、例えば、非線形最小二乗を使用して、報告された心筋ボリュームの不一致を最小限にするように調整され得る。物理的制約の別の例として、後処理行為は、RVとLVが重ならないことを保証することができる。これを達成するために、システムは、任意の与えられたピクセルが、最高の推定された確率を有するクラスである1つのクラスに属することだけを可能にすることができる。ユーザは、選択された制約の要求を有効又は無効にする構成オプションを有することができる。
916では、すべてのバッチが処理されていない場合、すべてのスライス位置及びすべての時点で推定が実行されるまで、908で新しいバッチが処理パイプラインに追加される。
少なくともいくつかの実装形態では、表示、ユーザ対話、及びデータベース記憶を容易にするために、ラベルマスクが作成されると、マスクはスプライン輪郭に変換され得る。最初のステップでは、マスクの境界上のすべてのピクセルをマーキングすることによって、マスクをポリゴンに変換する。次いで、このポリゴンは、「A. Rosenfeld and J.S. Weszka. “An improved method of angle detection on digital curves.” Computers, IEEE Transactions on, C-24(9):940-941, Sept. 1975.」に基づいてコーナー検出アルゴリズムを使用してスプラインの制御点のセットに変換される。これらのマスクの1つからの典型的なポリゴンは、数百の頂点を有する。コーナー検出は、これを約16個のスプラインの制御点のセットへ削減しようと試みる。これは、ストレージ要件を削減し、より滑らかに見えるセグメンテーションをもたらす。
918では、これらのスプラインがデータベースに記憶され、ウェブアプリケーションでユーザへ表示される。ユーザがスプラインを修正した場合、データベースは修正されたスプラインで更新され得る。
少なくともいくつかの実装形態では、ボリュームは、与えられた時点についてすべての頂点からボリューム測定用メッシュを作成することによって計算される。頂点は、3Dボリュームのすべてのスライス毎に配列される。メッシュを定義するために使用される頂点の円筒形グリッドが得られるまで、輪郭における各頂点について、各輪郭における第1の頂点を接続する開いた3次スプライン、第2の頂点を接続する第2のスプラインなどが生成される。次いで、ポリゴンメッシュの内部ボリュームが計算される。計算されたボリュームに基づき、どの時点が収縮末期フェーズ及び拡張末期フェーズを表すかが、それぞれ最小ボリューム及び最大ボリュームを有する時間に基づいて自律的に決定され、これらの時点は、ユーザのためにラベル付けされる。
図10、図11、及び図12はそれぞれ、単一の時点及びスライス位置におけるLV Endo輪郭1002、LV Epi輪郭1102、及びRV Endo輪郭1202についてのアプリケーション内推定結果の例示的な画像1000、1100、及び1200を示す。
輪郭(例えば、輪郭1002、1102、及び1202)がユーザへ表示されると同時に、システムは、ED及びESにおける心室ボリュームを計算し、複数の計算された測定値と共にユーザへ示す。複数の計算された測定値を表示する例示的なインターフェース1300が、図13に示される。少なくともいくつかの実装形態では、これらの測定値は、1つの心周期において心室から放出される血液のボリュームである一回拍出量(SV)1302、1つの心周期内に心室から放出された血液プールの割合である駆出率(EF)1304、血液が心室を離れる平均速度である心拍出量(CO)1306、拡張末期における心室の心筋(すなわち、心外膜-心内膜)の質量であるED質量(ED mass)1308、及び収縮末期における心室の心筋の質量であるES質量(ES mass)1310を含む。
4Dフローデータでは、SSFPに関して上記に説明されたのと同じDeep Ventricleアーキテクチャ、ハイパーパラメータ探索方法論、及びトレーニングデータベースが使用されてよい。4Dフローモデルのトレーニングは上述されたSSFP操作と同じでよいが、LMDBの作成及び推定は4Dフロー実装形態では異なることがある。
4Dフローデータのトレーニングデータベース作成
SSFP DICOMファイルは、取得されSAX方向に記憶されるのに対し、4DフローDICOMは、収集されアキシャルスライス(axial slices)として記憶される。データのSAX多平面再構成(MPR)を作成するために、ユーザは左心及び/又は右心の関連するランドマークを配置する必要があり得る。これらのランドマークは、心室尖部及び弁によって画定された各心室の一意のSAX平面を定義するために使用される。図14は、各SAX平面が2チャンバービュー1402、3チャンバービュー1404、及び4チャンバービュー1406に対して平行である、LVについてのSAX平面のセット1400(SAXスタックとも呼ばれる)を示す。
アプリケーションは、必要に応じて、平行でないSAX平面をユーザが有することを可能にすることもできる。図15は、2チャンバービュー1502、3チャンバービュー1504、4チャンバービュー1506、及び再構成された画像1508の、セグメンテーション平面がRVに平行でないSAXスタックのビューのセット1500を示す。これは、セグメンテーション平面が弁平面と交差せずにむしろそれと平行である場合に、心室をセグメント化することが少し容易であるという事実によって動機付けされる。しかしながら、これは必須ではなく、この特徴を使用することなく精密な結果を得ることが可能である。
図16及び図17の画像1600及び1700にそれぞれ示されるように、各SAX平面上の画像データの多平面再構成に対してセグメンテーションが行われる。画像1606内の輪郭1604上の点1602はスプラインを定義し、データベースに記憶されるものである。輪郭1604は、2チャンバーLAXビュー1608、3チャンバーLAXビュー1610、及び4チャンバーLAXビュー1612に投影される。図17は、図16の同じスライスがセグメント化されている画像1702、1704、1706、及び1708を示すが、2チャンバービュー1704、3チャンバービュー1706、及び4チャンバービュー1708の各々は、奥行き効果でセグメンテーション平面を強調するように少し回転されている。
図18は、臨床医アノテーションからトレーニングLMDBを作成するプロセス1800を示す。4Dフローアノテーションは、MongoDB1802に記憶され得る。1804及び1806では、システムはそれぞれ輪郭及びランドマークを抽出する。輪郭は、輪郭のスプラインを定義する(x,y,z)点の系列として記憶される。ランドマークは、ランドマーク毎に単一の4次元座標(x,y,z,t)として記憶される。
1808では、輪郭をブール型マスクに変換するために、システムは、回転行列を計算して、x-y平面上に輪郭点を回転させる。システムは、輪郭の元の平面上で、サンプリンググリッド、すなわち(x,y,z)点のセットを定義してもよい。システムは、同じ回転行列によって輪郭とサンプリンググリッドの両方をそれらがx-y平面内にあるように回転させる。ここで、サンプリンググリッドのどの点が輪郭を定義する2D頂点内にあるかを決定することは単純な作業である。これは、2Dポリゴンの単純な計算幾何学的問題である。
4DフローDICOMは、データベース1810に記憶される。1812では、システムは、行為1806からのランドマークアノテーション及びデータベース1810からの4DフローDICOMを使用して、SAXスタックに沿って画像を定義し生成する。一般に、このSAXスタックは、グランドトゥルース輪郭が定義された元のSAXスタックのものとは異なる。システムは、左心室尖部(LVA)と僧帽弁(MV)を接続する線に直交するようにスタックを定義する。右心室尖部(RVA)や三尖弁(TV)などの適切なランドマークの他の組み合わせも同様に作用する。
少なくともいくつかの実装形態では、システムは、LVAとMVとの間にいくつか(例えば、14個)のスライスが存在するように定義し、これは、ほとんどのSSFP SAXスタックのスライスの数と同様である。異なる数のスライスが使用されてもよい。スライスが増えるとトレーニングセット多様性が増大することになるが、実際のディスク上のサイズは多様性の増大よりも急速に増大する。結果は、スライスの正確な数に対して敏感でないことが予想される。
4つのスライスがLVAを越えるようにSAXスタックに付加され、さらに4つがMVを越えるように付加され得る。これは、心室全体がSAXスタック内にあることを保証する。結果は、使用される追加スライスの正確な数に敏感でないことが見込まれる。大動脈弁(AV)がLVAをMVに接続する線の右に向けられることを保証することによって、RVが(心臓MRで従来のように)常に画像の左にあるように、SAXスタックが向けられることができる。向きの一貫性は良好な結果を得るためにおそらく重要であるが、正確な選ばれた向きは任意である。
1814では、少なくともいくつかの実装形態では、与えられた検査の利用可能なすべての輪郭は、トレーニング及び推定の単純さ及び速度のために、単一の湾曲されていないSAXスタック上に補間される。SAXスタックの平面が定義されると、元のサンプリンググリッド、すなわち(x,y,z)点の系列、及びそれらに対応するマスクによって記述された各心室及び時点について線形補間器が設定される。次いで、システムは、グランドトゥルースマスクをそれらの元のSAXスタックから検査の共通のSAXスタック上へ補間する。これの例が図19のビュー1900に示されており、ビュー1900は、多平面再構成1902、RV endoマスク1904、LV epiマスク1906、及びLV endoマスク1908を示している。タグ(sentinel)が、標識が欠損しているときを示すために、補間されたグランドトゥルースマスク内に使用される。これの例示的な視覚化2000が図20に示されており、視覚化2000は、多平面再構成2002、RV endoマスク2004、欠損LV epiマスク2006、及びLV endoマスク2008を示している。
少なくともいくつかの実装形態では、グランドトゥルースマスクを共通のSAXスタックに投影する代わりに、マスクはアキシャル平面上に投影され、アキシャル平面内でトレーニング及び推定を行うことができる。これは同様の精度を達成し得るが、アプリケーションのユーザインターフェース内に表示するために推定された輪郭をSAXスタック内に再投影する必要があるため、解像度のわずかな損失を生じることがある。
1816では、システムは前処理操作を実行する。例えば、前処理行為は、画像の正規化、画像/マスクのクロップ、及び画像/マスクのサイズ変更を含むことができる。
1818では、システムは、時間インデックス、スライスインデックス、側(「右」又は「左」)、レイヤ(「endo」又は「epi」)、アップロードID、ワークスペースID(1人の人物のアノテーションに対する一意の識別子)、及びワークフローキー(所与のユーザが作業したそのユーザのワークフローに対する一意の識別子)の文字列組み合わせの32文字のハッシュとして、4DフローLMDBの一意のキーを定義する。あるいは、各画像/マスク対に対するいくつかの他の一意のキーが使用されてもよい。1820では、システムは、データフレームに、時点、スライスインデックス、及びLMDBキーを含む、画像及びマスクメタデータを記憶する。正規化、クロップ、及びサイズ変更された画像、並びにクロップ及びサイズ変更されたマスクが、各キーについてLMDB1822に記憶される。
(4DフローデータのDeep Ventricle推定)
上述されたSSFP Deep Ventricle推定と同様に、ウェブアプリケーションが4Dフローデータについての推定のために使用され得る。図21は、システムが新しい4Dフロー検査に対して予測を行うプロセス2100のためのパイプラインを示す。2102では、ユーザがウェブアプリケーションに検査をロードした後、ユーザは、上記に説明され図9に示された推定パイプラインと同様のパイプラインを介して推定サービスを起動することができる。ランドマークは、手動又は自動で(例えば、後述される自動ランドマーク発見アルゴリズムによって)既に定義されている。
ランドマーク位置は、推定を行うための標準的LV SAXスタックを作成するために使用される。SAXスタックは、上記に説明されたSAXスタックがトレーニング中に作成されたのと同じ方法で作成される。2104では、SAXスタックにおいて各MPRを記述するために必要とされるメタデータが、ランドマーク位置から計算される。各MPRの平面は、平面上の点及び平面の法線によって完全に定義されるが、システムはまた、この実装形態では、確実に画像が正しく向けられるように、僧帽弁と大動脈弁を接続するベクトルを渡す。すなわち、右心室は画像における左にある。僧帽弁及び三尖弁などのランドマークの別のセットも、右心室が画像における左にあることを確実にするために十分であり得る。
2106では、MPRメタデータは、次いで、データの分散されたバージョンを保持する計算サーバに送られる(各計算ノードは、データの数個の時点を有する)。2108では、各ノードは、要求されたMPRをそれが利用可能な時点についてレンダリングする。2110では、生成されたMPR画像は、時点、向き、位置、及びスライスインデックスを含むそれらのメタデータと共に、複数の推定サーバにわたって時点で均等に分散される。2112では、ネットワークが各推定ノードにロードされる。
2114では、一度に1つのバッチの画像が各推定ノードによって処理される。2116では、画像が前処理される。2118では、順方向パスが計算される。2120では、予測が後処理され、上述されたSSFP実装形態と同じ方法でスプライン輪郭が作成される。
2122では、生成されたスプラインは、すべてのバッチが処理された後にウェブサーバに転送されて戻され、スプラインは、他の推定ノードからの推定結果と結合される。ウェブサーバは、輪郭が欠損している場合、隣接するスライスの間を補間することによって、ボリュームが連続的である(すなわち、欠損輪郭がボリュームの途中にない)ことを保証する。2124では、ウェブサーバは輪郭をデータベースに保存し、次いで、ウェブアプリケーションを介してユーザに輪郭を提示する。ユーザがスプラインを編集した場合、スプラインの更新されたバージョンが、元の自動的に生成されたバージョンと共にデータベースに保存される。少なくともいくつかの実装形態では、手動で編集された輪郭をそれらの元の自動的に生成されたバージョンと比較することは、手動補正を必要とする推定結果上のみでモデルを再トレーニング又は微調整するために使用され得る。
図22、図23、及び図24はそれぞれ、単一の時点及びスライス位置におけるLV Endo(輪郭2202)、LV Epi(輪郭2302)、及びRV Endo(輪郭2402)についてのアプリケーション内推定の画像2200、2300、及び2400を示す。SSFPと同様に、ED及びESにおける計算されたボリュームが、複数の計算された測定値(図13参照)と共にユーザへ提示され得る。
(3Dエンドツーエンド畳み込みアーキテクチャ)
心室のエンドツーエンドセグメンテーションのための別の手法では、ボリューム測定用画像、ボリューム測定用マスク、及び3D畳み込みカーネルを全体にわたって利用する。この実装形態の説明及び操作は共に、上述されたSSFP実装形態のそれに密接に従うが、いくつかの重要な違いを有する。従って、簡潔にするために、以下の議論は主にそのような違いに焦点を当てる。
この実装形態のためのDeep Ventricleアーキテクチャは、畳み込みカーネルが単に(N×M)ピクセルでなく(N×M×K)ピクセルであり、N、M、及びKは互いに等しい又は異なる正の整数であることを除いて、上述されたものとほぼ同一である。モデルパラメータも同様に見えるが、トレーニングデータを記述する深さ成分の追加が、ボリューム測定用入力画像の形状を完全に記述するために必要であり得る。
他の実装形態と同様に、この実装形態にはトレーニングLMDBが利用される。この実装形態のためのLMDBは、上述された4Dフロー実装形態のそれと同様の方法で作成されてよい。しかしながら、この実装形態では、隣接するスライスの間のスライス間隔がx方向及びy方向のピクセル間隔のそれと同様である(すなわち、ピクセル間隔が3次元でほぼ等方的である)ように、より多くのスライスがSAXを定義するために利用される。ピクセル間隔の間の比がすべての検査にわたって保存されている限り、非等方性ピクセル間隔で同様の結果が達成できる可能性が高い。次いで、SAX MPR及びマスクは、空間スライスによって配列され、これらのスライスは、1つのコヒーレントなボリューム測定用画像に連結される。モデルトレーニングは、図8を参照して上記に説明されたのと同じパイプラインに従って行われる。
推定パイプラインは、同様に4Dフロー実装形態のそれとかなり似ている。しかしながら、この実装形態では、隣接するMPRは、推定の前に1つのボリューム測定用画像へ連結される必要がある。
(乳頭筋の除外)
Deep Ventricle自動セグメンテーションモデルの追加の実装形態は、心室の血液プールのみがセグメント化され乳頭筋が除外されるものである。実際に、乳頭筋は小さく不規則に形成されているので、それらは典型的には便宜的にセグメント化されたエリアに含まれる。血液プールから乳頭筋を除外する、この実装形態のアーキテクチャ、ハイパーパラメータ、及びトレーニングデータベースは、上述されたSSFP実装形態にすべて類似している。しかしながら、この実装形態では、グランドトゥルースセグメンテーションデータベースが、乳頭筋を除外しそれらを含まない左及び右心室心内膜アノテーションを含む。
心内膜輪郭から乳頭筋を除外するセグメンテーションは作成するのが煩わしいため、トレーニングデータの量は、乳頭筋を除外しないセグメンテーションで取得され得るものよりもかなり少なくなる可能性がある。これを補うために、まず、乳頭筋が心内膜セグメンテーションに含まれ心外膜セグメンテーションから除外されたデータに対してトレーニングされた畳み込みニューラルネットワークが使用され得る。これは、ネットワークが、各クラスの一般的なサイズ及び形状をセグメント化することを学習することを可能にする。次いで、そのネットワークは、セグメンテーションから乳頭筋を除外したより小さなデータのセットに対して微調整される。結果は、以前と同じクラスをセグメント化するが乳頭筋が心内膜セグメンテーションから除外された、セグメンテーションモデルである。これは、乳頭筋が心内膜輪郭内に含まれていたときに以前に利用可能であったものよりも精密な心室血液プールボリュームの測定をもたらす。
(自動化されたボリュームについての他のビューの合成)
従来の画像分類又はセグメンテーションニューラルネットワークアーキテクチャは、一度に単一の画像、場合によっては複数チャンネル(例えば、RGB)画像、場合によってはボリューム測定用画像に対して動作する。標準的2D手法は、一度に3Dボリュームからの単一のスライスに対して動作するネットワークを含む。この場合、単一のスライスからの情報のみが、そのスライスにおけるデータを分類又はセグメント化するために使用される。この手法の問題は、対象のスライスについて、周囲の時点又はスライスからの文脈が推定に組み込まれないことである。標準的3D手法は、ボリューム測定用予測を行うために3Dカーネルを利用しボリューム測定用情報を組み込む。しかしながら、この手法は、低速であり、トレーニングと推定の両方のためにかなりの計算リソースを必要とする。
メモリ/計算と時空間コンテキストのモデルへの利用可能性とのトレードオフを最適化するために、後述されるいくつかのハイブリッド手法が使用され得る。空間コンテキストは、単一の2Dスライス上で僧帽弁と三尖弁を区別するのが難しい心臓の基底の近くの心室セグメンテーションに特に有用である。時間コンテキスト、及びセグメンテーションの一貫性の実施は、セグメンテーションのすべての部分のために有用であり得る。
第1の手法では、問題は2D問題として解釈され、一度に単一のスライスについて予測を行うが、(空間、時間、又はその両方で)隣接するスライスが、画像の追加の「チャンネル」として解釈される。例えば、時間t=5及びスライス=10において、9チャンネル画像が生成されてよく、以下の時間/スライス組み合わせにおけるデータが以下の9チャンネル、すなわち、{t=4、スライス=9}、{t=4、スライス=10}、{t=4、スライス=11}、{t=5、スライス=9}、{t=5、スライス=10}、{t=5、スライス=11}、{t=6、スライス=9}、{t=6、スライス=10}、{t=6、スライス=11}にパックされる。この構成では、ネットワークは2D畳み込みで動作するが、近くの空間的位置及び時間的位置からのデータを組み込み、学習されたカーネルと畳み込まれた入力チャンネルの線形結合を介して特徴マップを作成する標準的ニューラルネットワーク技法によって情報を合成する。
第2の手法は、心臓MRIのいくつかの複雑さに特異的であるが、それは、データの直交面(又は斜面)が取得される任意のシナリオで使用され得る。標準的SSFP心臓MRIでは、短軸(SAX)スタックが、1つ又は複数の長軸(LAX)平面と共に取得される。LAX平面はSAXスタックと直交しており、LAX平面は、典型的には、左心室の長軸に沿った方向に著しく高い空間解像度を有する。すなわち、SAXスタックのMPRによって生成されたLAX画像は、SAXスライス間隔がLAX面内ピクセル間隔よりもかなり粗いので、ネイティブLAX画像よりも低い解像度を有する。長軸方向のより高い空間解像度のため、SAX画像と比較してLAX画像における弁を見ることは極めて簡単である。
従って、2段階心室セグメンテーションモデルが利用されてよい。第1の段階では、心室が1つ又は複数のLAX平面でセグメント化される。これらの画像の高い空間解像度のため、セグメンテーションが非常に正確であり得る。欠点は、LAX平面が、ボリュームの代わりに単一の平面のみからなることである。このLAXセグメンテーションがSAXスタックに投影された場合、LAXセグメンテーションはSAX画像の各々における線として出現する。この線が複数のLAXビュー(例えば、2CH、3CH、4CH;下記の見出し「手動LV/RVボリュームに対する弁平面を定義するためのインターフェース」を参照されたい)からセグメンテーションにわたって集約されている場合、この線は正確に作成され得る。この線は、SAX画像に対して動作する異なるモデルを介して生成されるSAXセグメンテーションを境界付けるために使用され得る。SAXセグメンテーションモデルは、生のSAX DICOMデータ及びLAXモデルからの予測された投影された線の両方を、その予測を行うために入力して使用する。予測されたLAXラインは、SAX予測を誘導し、境界付け、特に、SAXスタックだけで見られたときにセグメンテーションがしばしば曖昧である、心臓及び弁平面の基底近くのモデルの助けとなる。
この技法は、ボリューム全体が一度に取得される(並びにSAX画像とLAX画像が別々に収集されない)4Dフローを含む任意の心臓イメージングに使用されてよく、2つの連鎖モデル内にかかわらず、2Dカーネルのみが利用されることを必要とするという利点を有する。
(自動化されたボリュームについての時間又は流れ情報の使用)
SSFPシネ検査は4次元のデータ(空間で3つ、時間で1つ)を含み、4Dフロー検査は5次元のデータ(空間で3つ、時間で1つ、4チャンネルの情報)を含む。これら4チャンネルの情報は、解剖学的形態(すなわち信号強度)、軸位相、y軸位相、及びz軸位相である。モデルを構築する最も単純な方法は、各3D空間点で信号強度のみを使用し、時間情報、又は4Dフローの場合は流れ情報を組み込まない。この単純なモデルは、形状(x,y,z)の3Dデータ立方体を入力として取り込む。
すべての利用可能なデータを活用するために、少なくともいくつかの実装形態では、時間及び位相データも組み込まれる。これは、少なくともいくつかの理由で特に有用である。第1に、心臓の動きは通常、心周期中の予測可能なパターンに従うので、ピクセルの相対的な動きは、特に解剖学的領域を識別する助けとなり得る。第2に、通常は心周期に対して約20個の時点が記録され、これは、心臓がフレーム間でわずかにのみ動くことを意味する。予測がフレーム間でわずかしか変化しないことを認識することは、モデル出力を正則化する方法として役立つことがある。第3に、流れ情報が、低流量と高流量との間で変化する非常に規則的な流れパターンを有する弁などの構造を位置特定するために使用され得る。
時間データを組み込むために、強度データに追加の「チャンネル」として時間が追加され得る。そのような実装形態では、次いで、モデルは形状(X,Y,Z,NTIMES)の3Dデータブロブ(3D data blobs)又は形状(X,Y,Z,NTIMES)の4Dデータブロブを入力として取り込み、ここで、NTIMESは、含む時点の数である。これは、すべての時点、又は対象の時点を囲むいくつかの時点であってもよい。すべての時点が含まれている場合、時間が心周期を表し本質的に周期的であるため、データを数個の「ラップアラウンド(wrapped around)」時点でパディングすることが望ましく又は必要であり得る。次いで、モデルは、データの追加の「チャンネル」として時点を有する2D/3D畳み込み又は3D/4D畳み込みを含むことができる。前者の場合、出力は、関心のある単一の時間において2D/3Dであってよい。後者の場合、出力は、3D/4Dであってよく、入力に含まれたのと同じ時点でデータを含んでよい。
4Dフローで取得された位相データは、入力データの追加チャンネルとして位相の各方向(x,y,z)を使用して、又は単一の追加チャンネルとして位相大きさのみを使用して、類似した方法で組み込まれてもよい。時間無しで、流れの3つすべての成分を有する場合、入力は形状(X,Y,Z,4)を有し、ここで、4は、ピクセル強度及び位相の3つの成分を示す。時間を有する場合、この形状は(X,Y,Z,NTIMES,4)である。従って、そのような実装形態では、モデルは4又は5次元折り畳みで動作する。
(自動化された4Dフローランドマーク)
本明細書に述べられているシステム及び方法はまた、3D MRIにおける複数の心臓ランドマークの領域の自動化された検出を可能にする。システムは、画像化された心臓の様々な位置、向き、及び外観を有するMRIの多様なセットを取り扱う。さらに、システムは、不完全なアノテーションを有するデータベースからの学習の問題を効果的に扱う。より具体的には、システムは、トレーニングセット上の各入力ボリューム測定用画像について一部のランドマークのみが位置特定されたときに、画像内のすべてのランドマークを検出する問題に対処する。
一般に、パイプラインは、生の3D画像から必要とされるランドマーク位置を自律的に出力する、エンドツーエンド機械学習アルゴリズムである。有利なことに、システムは、前処理又はユーザからの事前知識を必要としない。さらに、ボリューム測定用画像における検出されたランドマークが、2CH、3CH、4CH、及びSAXビューに沿って画像を投影するために使用され得る。それにより、ユーザによる介入無しにこれらのビューを自動的に作成されることを可能にする。
最初に、解決策の第1の実装形態について述べられる。この実装形態では、心臓ランドマークが、多くのレイヤを有するニューラルネットワークを使用して位置特定される。アーキテクチャは3次元(3D)であり、3D畳み込みを使用する。この説明は、3つの左心室ランドマーク(LV尖部、僧帽弁、及び大動脈弁)、並びに3つの右心室ランドマーク(RV尖部、三尖弁、及び肺動脈弁)の検出に焦点を当てている。しかしながら、この方法は、これらのアノテーションがグランドトゥルースの一部として利用可能である場合、同等の結果を有するより多様な心臓ランドマークの検出に適用され得ることに留意されたい。
先に説明されたDeep Ventricleアーキテクチャと同様に、本開示のランドマーク検出方法は、畳み込みニューラルネットワークに基づく。ランドマーク検出に必要な情報は、臨床画像のデータベースから、それらのアノテーション(すなわちランドマーク位置)と共に抽出される。図25、図26、及び図27はそれぞれ、左心室尖部、僧帽弁、及び右心室尖部が、上述されたウェブアプリケーションなどのウェブアプリケーションを使用して配置された3人の患者の画像2500、2600、2700を示す。この例では、大動脈弁、肺動脈弁、及び三尖弁のアノテーションがどのように欠損しているかに留意されたい。
第1に、データ処理パイプラインが説明される。この項では、ランドマーク位置を符号化するために使用される特定の方法と共に、そのアノテーションを有する画像のデータベースを作成するためにたどられるプロセスを詳述する。第2に、機械学習手法のアーキテクチャが提示される。ネットワークがどのように入力3D画像をランドマーク位置の予測に変換するかが提示される。第3に、モデルが利用可能なデータに対してどのようにトレーニングされるかが説明される。最後に、推定パイプラインが詳述される。6つすべてのランドマークの領域を予測するために以前に使用されなかった画像にニューラルネットワークをどのように適用できるかが示されている。
(データ処理パイプライン)
提示された機械学習手法では、2次元(2D)DICOM画像の系列として記憶された心臓の3次元(3D)磁気共鳴イメージング(MRI)を含む、4Dフローデータのデータベースが使用される。典型的には、単一の心周期にわたって、約20個の3Dボリューム測定用画像が取得され、各々が心拍の1つのスナップショットに対応する。従って、初期データベースは、異なる時間ステップにおける異なる患者の3D画像に対応する。各3D MRIは、ウェブアプリケーションのユーザによって配置されたゼロランドマークから6ランドマークまでのいくつかのランドマークアノテーションを提示する。ランドマークのアノテーションは、存在する場合、時点tに対応する3D MRIのランドマークの位置(x,y,z)を示す座標(x,y,z,t)のベクトルとして記憶される。
図28は、4Dフロー画像2802の2D DICOMスライス、及びMongoDBデータベースに記憶されたアノテーション2804を取り扱うためにたどられ得るプロセス2800を示す。
2806では、ランドマーク座標がMongoDBデータベースから抽出される。次いで、2808では、3D MRIは、2D DICOM画像の系列から、単一の時点からの2D DICOM画像をz軸に沿ったそれらの位置に従ってスタックする(すなわち、2D画像は、3Dボリュームを作成するために深さ次元に沿ってスタックされる)ことによって抽出される。これは、心臓の全景を表すボリューム測定用3D画像をもたらす。LMDBは、少なくとも1つのランドマーク位置でアノテーション付けされた3D画像で構築される。これは、グランドトゥルースランドマークを有しない画像はLMDBに含まれないことを意味する。
2810では、後の段階で使用されるニューラルネットワークに理解可能な方法でアノテーション情報を符号化するラベルマップが定義される。ランドマークの位置は、3Dボリューム内の各位置において、その位置がどの程度ランドマーク位置にあるかを示すことによって符号化される。そうするために、3Dガウス確率分布が作成され、グランドトゥルースランドマークの位置に中心が置かれ、それは、すべてのトレーニングデータにわたるそのタイプのランドマークの観察された評価者間変動に対応する標準偏差を有する。
評価者間変動を理解するために、LV尖部のような1つの特定のランドマークを考える。LV尖部が複数のユーザ又は「評価者」によってアノテーションを付けられた各検査では、すべてのユーザにわたってLV尖部座標の標準偏差が計算される。このプロセスを各ランドマークについて繰り返すことによって、各ランドマークを符号化するために使用されるガウスの標準偏差が定義される。このプロセスは、原則的な様式でこのパラメータを設定することを可能にする。この手法を使用する様々な利点の中でも、標準偏差がランドマーク毎に異なり、ランドマークを位置特定する複雑さに依存することに留意されたい。具体的には、より難しいランドマークは、ターゲット確率マップでより大きなガウス標準偏差を有する。さらに、標準偏差がx、y、及びz軸に沿って異なり、心臓の解剖学的形態及び/又は画像の解像度のために不確実性が一方向に別方向よりも大きくなり得ることを反映している。
代替戦略が標準偏差(任意の値、パラメータ検索)を定義するために使用されてもよく、同等の結果をもたらし得ることに留意されたい。図29は、ビュー2904内の十字2902で識別されたランドマーク位置から、2Dの場合に画像上で評価されたビュー2908内のガウシアン2906へのこの移行を示す。
2812では、3DボリュームがMRIとラベルマップの両方に対して定義されると、画像が前処理される。一般に、目標は、将来のトレーニングのために画像サイズ及び外観を標準化することである。
図30は、前処理パイプラインのためのプロセス3000を示す。3006及び3008では、3D MRI3002及びラベルマップ3004はそれぞれ、MRIのすべてが同じニューラルネットワークに供給され得るように、予め定義されたサイズ$n_x \times n_y \times n_z$にサイズ変更される。3010では、MRIピクセルの強度は第1及び第99パーセンタイルとの間でクリッピングされる。これは、ピクセル強度が第1及び第99パーセンタイルに対応する強度の値で飽和することを意味する。これは、アーチファクトによって引き起こされた異常値ピクセル強度を除去する。3012では、次いで、強度が0と1の間になるようにスケーリングされる。3014では、次いで、コントラスト制限適応ヒストグラム等化(contrast limited adaptive histogram equalization)を使用して、画像内のコントラストを最大化し、(例えば、磁場不均一性によって引き起こされ得るような)画像内強度差を最小化するように、強度ヒストグラムが正規化される。最後に、3016では、画像がゼロ平均を有するようにセンタリングされる。入力の分散を1に正規化するような他の戦略が画像強度の正規化に使用されてもよく、同様の結果を生じ得る。このパイプラインは、ネットワークに供給され得る前処理された画像3018及びラベル3020をもたらす。
図31及び図32は、前処理された3D MRI及び符号化されたラベルの、2人の患者についての例示的な画像3100及び3200を示す。特に、図31は、1人の患者についての前処理された入力画像及び符号化された僧帽弁ランドマークのサジタルビュー3102、アキシャルビュー3104、及び冠状ビュー3106を示し、図32は、別の患者についての前処理された入力画像及び符号化された僧帽弁ランドマークのサジタルビュー3202、アキシャルビュー3204、及び冠状ビュー3206を示す。図31及び図32に見られるように、三尖弁の位置特定の不確実性は僧帽弁についての不確定性よりも大きい。さらに、不確実性は軸毎に異なる。
図28に戻ると、2814では、アップロードIDが、2816でトレーニングLMDBデータベースに記憶される対(MRI、ラベルマップ)を識別するキーであると定義される。最後に、2818では、対(MRI、ラベルマップ)がLMDBに書き込まれる。
ネットワークアーキテクチャ
上記されたように、ディープニューラルネットワークがランドマークの検出のために使用される。ネットワークは、前処理された3D MRIを入力として取り入れ、ランドマーク毎に1つずつ、6つの3Dラベルマップを出力する。この実装形態で使用されるアーキテクチャは、上記に説明されたアーキテクチャと同様又は同一である。ネットワークは、2つの対称的経路である収縮経路及び拡張経路から構成される(図6参照)。
すべてのランドマークが、利用可能なトレーニングデータで利用可能ではないことがあるため、本開示のシステム及び方法は、有利には、ラベル内の欠損情報を処理しながら同時にすべてのランドマークを予測することができる。
ランドマーク検出に使用されるネットワークは、上述されたDeep Ventricle実装形態と3つの主要な点において異なる。第1に、アーキテクチャは3次元であり、ネットワークがシングルパスで3D MRIを処理し、すべてのランドマークに対して3Dラベルマップを作成する。第2に、ネットワークは、ランドマーク毎に1つで、6つのクラスを予測する。第3に、ハイパーパラメータ探索の後に選択されたパラメータは、Deep Ventricleパラメータとは異なる可能性があり、特に間近の問題を解決するために選択される。加えて、上述されたラベルマップを定義するために使用される標準偏差は、ハイパーパラメータとして考えられ得る。ネットワークの出力は、ランドマークがどこに位置付けられているかを符号化する3Dマップである。マップの高い値は、ありそうなランドマーク位置に対応することができ、低い値は、ありそうにないランドマーク位置に対応することができる。
(トレーニング)
以下の議論は、3D MRI及びラベルマップ対のLMDBデータベースを使用してどのようにディープニューラルネットワークがトレーニングされ得るかを説明する。全体的な目的は、以前に見られなかった画像上の心臓ランドマークの位置をネットワークが予測できるように、ネットワークのパラメータを調整することである。トレーニングプロセスのフローチャートは図8に示され上記に説明されている。
トレーニングデータベースは、モデルをトレーニングするために使用されるトレーニングセット、モデルの品質を定量化するために使用される検証セット、及びテストセットに分割され得る。分割は、1人の患者のすべての画像が同じセット内にあるように強制する。これは、トレーニングに使用された患者でモデルが検証されないことが保証する。モデルをトレーニングするときに使用されるテストセットからのデータはない。テストセットからのデータは、ランドマーク位置特定の例を示すために使用されてもよいが、この情報は、トレーニングのために、又はモデルを互いにランク付けするために使用されない。
トレーニング中、損失の勾配がニューラルネットワークのパラメータを更新するために使用される。少なくともいくつかの実装形態では、ネットワークのより速い収束を提供するために、ランドマークが存在する領域での損失の重み付けが利用され得る。より正確には、損失を計算するときに、ランドマークの近くの画像の領域に対して、画像の残部と比べて大きな重みが適用され得る。結果として、ネットワークがより急速に収束する。しかしながら、重み付けされない損失の使用が、より長いトレーニング時間にかかわらず、良好な結果を伴って用いられることもある。
(推定)
新しい画像が与えられると、図28を参照して上記に説明されたものと同様の様式で画像を前処理することによって、ランドマーク位置が推定される。より正確には、画像がサイズ変更され、クリッピングされ、スケーリングされ、画像のヒストグラムが等化され、画像がセンタリングされ得る。ネットワークは、6つのランドマークの場合、ランドマーク毎に1つのマップで合計6つの3Dマップを出力する。これらのマップは、各ランドマークが特定の位置に発見される確率を記述する。あるいは、マップは、ランドマークの真の位置から逆距離関数を符号化する(すなわち、高い値は小さい距離に帰着し、低い値は大きい距離に帰着する)とみなされ得る。
従って、図33の図3300に示されるように、ランドマーク位置3302は、各ランドマークについてのニューラルネットワークの出力の最大値を探すことによって決定され得る。次いで、この位置は、最終的ランドマーク位置特定のために、元の前処理されていない3D入力MRIの空間に投影される(例えば、推定中にボリュームに適用された空間歪みを元に戻す)。ラベルマップをランドマーク位置座標に変換するために、いくつかの他の戦略が使用されてもよいことに留意されたい。例えば、ラベルマップを3D確率密度として使用して、予想される位置を得てもよい。最大値を取ることは密度のモードを考えることに対応することに留意されたい。又は、確率推定値が、位置として最大値又は期待値を選択する前に、最初に平滑化されてもよい。
(データ収集)
少なくともいくつかの実装形態では、データセットは、以前のユーザによってウェブアプリケーションにアップロードされた臨床検査から構成される。アノテーションは、異なる画像上にユーザによって配置されてよい。先に説明されたように、このデータセットは、トレーニング、検証、及び試験セットに分割される。
ニューラルネットワークは、先に上述され図8に示されたパイプラインを使用してトレーニングされ得る。トレーニングセットから抽出されたデータのバッチが、ニューラルネットワークに順次供給される。ネットワーク予測と実際のランドマーク位置との間の損失の勾配が計算され、逆方向伝達されて(backpropagated)、ネットワークの固有パラメータを更新する。他のモデルハイパーパラメータ(例えば、ネットワークサイズ、形状)が、上述されたようにハイパーパラメータ検索を使用して選択される。
モデルアクセシビリティ
トレーニングされたモデルは、クラウドサービスの一部としてサーバ上に記憶されてよい。このモデルは、いくつかの時点で並行してランドマークの検出を実行するために、推定時に複数のサーバにロードされ得る。このプロセスは、図9に示され上述されたDeep Ventricleに使用される手法と同様である。
(ユーザ対話)
心臓MRIがウェブアプリケーションにアップロードされると、ユーザは「心臓」セクションの下の「ビュー」ボタンを選択することができる。これにより、「ランドマークを位置特定する」ボタンを用いて画像の右側に新しいパネルを開く。このボタンを選択すると、各時点におけるすべての3D画像で6つのランドマークを自動的に位置特定する。位置特定されたランドマークのリストが右パネル上に見える。ランドマーク名を選択することにより、画像のフォーカスを予測されたランドマーク位置にもたらし、ユーザは、必要とみなされる任意の修正を行うことを可能にされる。ユーザが満足すると、心臓の標準的2、3、4チャンバービュー及びSAXビューを作成する「標準ビュー」ボタンをユーザが選択することができる。
少なくともいくつかの実装形態では、取得される3D画像は、4Dフローシーケンスである。これは、信号の位相も取得され、4つの異なるビューを示す図34の画像3400に示されるように、心臓及び動脈における血流の速度を定量化するために使用されてよいことを意味する。この情報は、心臓の異なるランドマークを位置特定するために有用であり得る。この場合、先に説明されたモデルが、流れ情報を含むように補強されてよい。
(画像前処理)
4Dフローでは、各患者の取得の時点毎に流速情報が利用可能である。この情報を十分に利用するために、時間軸に沿った標準偏差が3D画像の各ボクセルで計算されてよい。標準偏差の大きさは、1心拍の経過におけるそのピクセルの血流変動の量に関連付けられる。次いで、この標準偏差画像は、先に説明された正規化パイプライン、すなわち、サイズ変更、クリッピング、スケーリング、ヒストグラム等化、センタリングに従って正規化される。フローデータの時間情報を符号化するために、いくつかの他の手法が考えられ得ることに留意されたい。例えば、4D信号のフーリエ変換が最後の次元に沿って計算されてもよく、様々な周波数ビン(frequency bins)が信号を符号化するために使用されてもよい。より一般的には、追加の計算及びメモリパワーを必要とするという犠牲を払って、時系列全体がネットワークに入力されてもよい。
(ネットワーク拡張)
ニューラルネットワークに対する入力は、追加のチャンネルによって拡張されてもよい。より正確には、4次元(4D)テンソルが定義されてよく、この場合、最後の次元が、解剖学的ピクセル強度と流れ大きさ又は速度の成分とを別々のチャンネルとして符号化する。上記に説明されたネットワークは、入力としてそのようなテンソルを受け入れるように拡張され得る。これは、第1のレイヤの拡張が4Dテンソルを受け入れることを必要とする。後続ステップのネットワークトレーニング、推定、及びユーザ対話は、先述されているものと同様のままである。
少なくともいくつかの実装形態では、心臓のランドマークの自動位置は、異なるランドマークの座標(x,y,z)を直接予測することによって達成されてもよい。そのため、異なるネットワークアーキテクチャが使用されてもよい。この代替ネットワークは、各ランドマークについての出力として(x,y,z)座標の長さ3のベクトルを有する、いくつかの全接続されたレイヤに後続される収縮経路から構成されてよい。これはセグメンテーションネットワークではなく回帰(regression)である。回帰ネットワークでは、セグメンテーションネットワークとは異なり、ネットワークに拡張経路が存在しないことに留意されたい。同じ出力フォーマットと共に他のアーキテクチャが使用されてもよい。少なくともいくつかの実装形態では、時間は、4Dデータ(x,y,z,時間)が入力として与えられた場合、第4の次元として出力に含められてもよい。
時間が組み込まれていないと想定すると、ネットワークの出力は、入力画像内の6つのランドマークの各々に対する3つの座標に対応する18個のスカラーである。そのようなアーキテクチャは、先に説明されたランドマーク検出器と同様の様式でトレーニングされてよい。必要とされる唯一の更新は、ネットワーク出力フォーマット(最初の実装形態で使用された確率マップとは対照的に、この実装形態では空間的点)の変更を説明するための損失の再定式化である。1つの妥当な損失関数は、ネットワークの出力と実際のランドマーク座標との間のL2(二乗)距離であってもよいが、損失関数が対象の量、すなわち距離誤差に関係付けられている限り、他の損失関数も使用されてよい。
上述された第1のランドマーク検出実施態様は、識別器(discriminator)ネットワークとして働く第2のニューラルネットワークを使用して拡張されてもよい。識別器ネットワークは、良好で現実的なランドマーク位置を悪い現実的でないものと区別するためにトレーニングされ得る。この定式化では、実装形態の初期ネットワークが、予測されたランドマーク確率分布のすべての極大を使用することなどによって、ランドマークの各タイプについてのいくつかのランドマーク提案を生成するために使用され得る。次いで、識別器ネットワークは、例えば、ランドマーク提案を中心とされた高解像度パッチ上で分類アーキテクチャを使用することによって、各提案を評価することができる。次いで、真のランドマークである最高の確率を有する提案が出力として捉えられ得る。この実装形態は、例えば、ノイズやアーチファクトの存在下で、曖昧な状況において正しいランドマーク位置を選択するのに役立つ場合がある。
心臓ランドマークの検出のための別の手法は、強化学習の使用である。この異なるフレームワークでは、3D画像に沿って歩くエージェントが考慮される。エージェントは、最初に画像の中央に配置される。次いで、エージェントがランドマーク位置に達するまで、エージェントはポリシーに従う。ポリシーは、左、右、上(up)、下(down)、上(above)、又は下(under)へステップを進める各ステップでのエージェントの意思決定プロセスを表す。このポリシーは、Q学習アルゴリズムを使用する状態動作関数Qについてのベルマン方程式を近似するディープニューラルネットワークを使用して学習され得る。1つのQ関数が、検出されるべきランドマークの各々について学習され得る。
少なくともいくつかの実装形態では、ニューラルネットワークが、標準ビューに対する平面の位置及び向きを定義するパラメータを直接予測するために使用され得る。例えば、開始ピクセルグリッドを長軸ビューに移動させるために必要とされる3D回転角度、並進、及び再スケーリングを計算するようにネットワークがトレーニングされ得る。別々のモデルが、異なる変形を予測するようにトレーニングされてよく、単一のモデルが、いくつかのビューを出力するために使用されてよい。
(手動LV/RVボリュームのための弁平面を定義するためのインターフェース)
左心室及び右心室のより精密なセグメンテーションを行うために、心臓の弁の位置及び方向を識別することが有利であり得る。少なくともいくつかの実装形態では、前述の心室セグメンテーションインターフェース内で、ユーザは、利用可能な長軸ビューを使用して弁平面上にある点をマーキングすることができる。弁平面は、最も良く適合する平面を発見するために回帰を行うことによって、これの入力点から決定される。平面の法線は、心室の尖部から離れる向きへ設定される。平面が定義されると、正側にあるボリュームの任意の部分が心室の総ボリュームから差し引かれる。これにより、心室のボリュームを決定する際に、弁の外側に何も含まれないことを保証する。
(例示的なプロセッサベースのデバイス)
図35は、本明細書に説明された様々な機能性を実装するために適したプロセッサベースのデバイス3504を示す。必須とされないが、実装形態の一部の部分は、1つ又は複数のプロセッサによって実行されるプログラムアプリケーションモジュール、オブジェクト、又はマクロのようなプロセッサ実行可能命令又はロジックの一般的なコンテキストで説明される。説明された実装形態及び他の実装形態は、スマートフォンやタブレットコンピュータなどのハンドヘルドデバイス、ウェアラブルデバイス、マルチプロセッサシステム、マイクロプロセッサベースもしくはプログラマブル家電、パーソナルコンピュータ(「PC」)、ネットワークPC、ミニコンピュータ、並びにメインフレームコンピュータなどを含む、様々なプロセッサベースのシステム構成で実施され得ることは、当業者には理解されよう。
プロセッサベースのデバイス3504は、1つ又は複数のプロセッサ3506と、システムメモリ3508と、システムメモリ3508からプロセッサ3506を含む様々なシステムコンポーネントを結合するシステムバス3510とを含むことができる。プロセッサベースのデバイス3504は、本明細書では単数で参照されるときがあるが、いくつかの実装形態では関連する複数のシステム又は他のネットワーク化されたコンピューティングデバイスがあるので、これは実装形態を単一のシステムに限定するように意図されていない。市販のシステムの非限定的例は、様々な製造者によるARMプロセッサ、Intel Corporation、U.S.A.のCoreマイクロプロセッサ、IBMのPowerPCマイクロプロセッサ、Sun Microsystems,Inc.のSparcマイクロプロセッサ、Hewlett-Packard CompanyのPA-RISCシリーズマイクロプロセッサ、Motorola Corporationの68xxxシリーズマイクロプロセッサを含むが、これらに限定されない。
プロセッサ3506は、任意の論理処理ユニット、例えば、1つ又は複数の中央処理装置(CPU)、マイクロプロセッサ、デジタルシグナルプロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)などであり得る。別段に説明されない限り、図35に示された様々なブロックの構成及び動作は従来の設計のものである。結果として、そのようなブロックは、それらが当業者に理解されるので、本明細書でさらに詳細に説明される必要はない。
システムバス3510は、メモリコントローラを有するメモリバス、周辺バス、及びローカルバスを含む、任意の知られているバス構造又はアーキテクチャを利用することができる。システムメモリ3508は、読み出し専用メモリ(「ROM」)1012及びランダムアクセスメモリ(「RAM」)3514を含む。ROM3512の一部を形成できる基本入出力システム(「BIOS」)3516は、起動中などに、プロセッサベースのデバイス3504内の要素間で情報を転送するのを助ける基本ルーチンを含む。いくつかの実装形態は、データ、命令、及び電力用に別個のバスを利用することがある。
プロセッサベースのデバイス3504はまた、1つ又は複数のソリッドステートメモリ、例えば、フラッシュメモリ又はソリッドステートドライブ(SSD)3518を含むことができ、それらは、プロセッサベースのデバイス3504のためのコンピュータ可読命令、データ構造、プログラムモジュール、及び他のデータの不揮発性ストレージを提供する。描かれていないが、プロセッサベースのデバイス3504は、他の非一時的コンピュータ又はプロセッサ可読媒体、例えば、ハードディスクドライブ、光ディスクドライブ、又はメモリカードメディアドライブを利用することができる。
プログラムモジュール、例えば、オペレーティングシステム3530、1つ又は複数のアプリケーションプログラム3532、他のプログラム又はモジュール3534、ドライバ3536、及びプログラムデータ3538などが、システムメモリ3508に記憶され得る。
アプリケーションプログラム3532は、例えば、パン/スクロール3532aを含むことができる。そのようなパン/スクロールロジックは、中央部分及び少なくとも1つの縁を有する領域を含むユーザインターフェース要素にいつ及び/又はどこでポインタ(例えば、指、スタイラス、カーソル)が入力するかを決定するロジックを含むことができるが、これに限定されない。そのようなパン/スクロールロジックは、ユーザインターフェース要素の少なくとも1つの要素が移動するように見えるべき方向及び速度を決定し、ディスプレイの更新を引き起こして、少なくとも1つの要素が決定された速度で決定された方向に移動するように見えるようにするロジックを含むことができるが、これに限定されない。パン/スクロールロジック3532aは、例えば、1つ又は複数の実行可能命令として記憶され得る。パン/スクロールロジック3532aは、ポインタの移動を特徴付けるデータ、例えば、タッチセンシティブディスプレイ又はコンピュータマウスもしくはトラックボール又は他のユーザインターフェースデバイスからのデータを使用して、ユーザインターフェースオブジェクトを生成するための、プロセッサ及び/又はマシン実行可能ロジック又は命令を含むことができる。
システムメモリ3508はまた、後述されるように、プロセッサベースのデバイス3504が、ユーザコンピューティングシステム、インターネット上のウェブサイト、企業イントラネット、又は他のネットワークのような他のシステムにアクセスしてデータを交換することを可能にするための、通信プログラム3540、例えば、サーバ及び/又はウェブクライアントもしくはブラウザを含むことができる。描かれた実装形態における通信プログラム3540は、ハイパーテキストマークアップ言語(HTML)、拡張マークアップ言語(XML)、又はワイヤレスマークアップ言語(WML)などのマークアップ言語ベースであり、ドキュメントの構造を表すためにドキュメントのデータに追加された構文的に区切られた文字を使用するマークアップ言語で動作する。いくつかのサーバ及び/又はウェブクライアントもしくはブラウザ、例えば、CaliforniaのMozilla Corporation及びWashingtonのMicrosoftからのものが市販されている。
図35ではシステムメモリ3508に記憶されるように示されているが、オペレーティングシステム3530、アプリケーションプログラム3532、他のプログラム/モジュール3534、ドライバ3536、プログラムデータ3538、並びにサーバ及び/又はブラウザ3540は、任意の他の多種多様な非一時的プロセッサ可読媒体(例えば、ハードディスクドライブ、光ディスクドライブ、SSD、及び/又はフラッシュメモリ)に記憶され得る。
ユーザは、ポインタを介して、例えば、指3544a、スタイラス3544bを介するタッチスクリーン3548のような入力装置によって、又はカーソルを制御するコンピュータマウスもしくはトラックボール3544cを介して、コマンド及び情報を入力することができる。他の入力デバイスは、マイクロホン、ジョイスティック、ゲームパッド、タブレット、スキャナ、バイオメトリック走査デバイスなどを含むことができる。これら及び他の入力デバイス(すなわち「I/Oデバイス」)が、ユーザ入力をシステムバス3510に結合するタッチスクリーンコントローラ及び/又はユニバーサルシリアルバス(「USB」)インターフェースなどのインターフェース3546を通して、プロセッサ3506に接続されるが、パラレルポート、ゲームポート、ワイヤレスインターフェース、又はシリアルポートなど他のインターフェースが使用されてもよい。タッチスクリーン3548は、タッチスクリーン3548を介して表示するための画像データ又は画像情報を受け取るためのビデオアダプタなどのビデオインターフェース3550を介して、システムバス3510に結合され得る。図示されていないが、プロセッサベースのデバイス3504は、スピーカ、バイブレータ、触覚アクチュエータなど他の出力デバイスを含むことができる。
プロセッサベースのデバイス104は、1つ又は複数の通信チャンネル、例えば、1つ又は複数のネットワーク3514a、3514bを介して1つ又は複数のリモートコンピュータ、サーバ、及び/又はデバイスと通信するための論理接続のうちの1つ又は複数を使用して、ネットワーク化された環境で動作することができる。これらの論理接続は、1つ又は複数のLAN及び/もしくはWAN、インターネット、並びに/又はセルラ通信ネットワークなどを通して、コンピュータが通信することを可能にする任意の知られている方法を容易にすることができる。そのようなネットワーキング環境は、有線及びワイヤレス企業規模コンピュータネットワーク、イントラネット、エクストラネット、インターネット、並びに、電気通信ネットワーク、セルラネットワーク、ページングネットワーク、及び他のモバイルネットワークを含む他のタイプの通信ネットワークにおいてよく知られている。
ネットワーキング環境で使用されるとき、プロセッサベースのデバイス3504は、ネットワーク、例えば、インターネット3514a又はセルラネットワークを介して通信を確立するための、1つ又は複数の有線又はワイヤレス通信インターフェース3514a、3514b(例えば、セルラ無線、WI-FI無線、Bluetooth無線)を含むことができる。
ネットワーク化された環境において、プログラムモジュール、アプリケーションプログラム、又はデータ、又はそれらの部分が、サーバコンピューティングシステム(図示せず)に記憶され得る。図35に示されたネットワーク接続は、コンピュータ間の通信を確立する方法のいくつかの例に過ぎず、ワイヤレスを含む他の接続が使用されてもよいことは、当業者には理解されよう。
便宜のため、プロセッサ3506、システムメモリ3508、ネットワーク及び通信インターフェース3514a、354bは、システムバス3510を介して互いに通信可能に結合されて示されており、それにより、上記されたコンポーネントの間の接続性を提供する。プロセッサベースのデバイス3504の代替実装形態では、上記されたコンポーネントは、図35に示されたのと異なる様式で通信可能に結合されてもよい。例えば、上記されたコンポーネントのうちの1つ又は複数は、他のコンポーネントに直接結合されてもよく、又は中間コンポーネント(図示せず)を介して互いに結合されてもよい。いくつかの実装形態では、システムバス3510が省略され、コンポーネントは適切な接続を使用して互いに直接結合される。
上記の詳細な説明は、ブロック図、概略図、及び例を使用してデバイス及び/又はプロセスの様々な実装形態を提示した。そのようなブロック図、概略図、及び例が1つ又は複数の機能及び/又は操作を含む限りにおいて、そのようなブロック図、フローチャート、又は例における各機能及び/又は操作が、広範囲のハードウェア、ソフトウェア、ファームウェア、又は実質的にそれらの任意の組み合わせによって個別及び/又は集合的に実装され得ることは、当業者には理解されよう。一実装形態では、本主題は、特定用途向け集積回路(ASIC)を介して実装され得る。しかしながら、本明細書に開示された実装形態は、1つもしくは複数のコンピュータ上で実行している1つもしくは複数のコンピュータプログラミングとして(例えば、1つもしくは複数のコンピュータシステム上で実行している1つもしくは複数のプログラムとして)、1つもしくは複数のコントローラ(例えば、マイクロコントローラ)上で実行している1つもしくは複数のプログラムとして、1つもしくは複数のプロセッサ(例えば、マイクロプロセッサ)上で実行している1つもしくは複数のプログラムとして、ファームウェアとして、又は実質的にこれらの任意の組み合わせとして、全体的又は部分的に標準的集積回路で同等に実装され得ること、並びに、回路を設計及び/又はソフトウェア及び/もしくはファームウェア用のコードの書き込みが本開示に照らして十分に当業者の技術の範囲内であることは、当業者には理解されよう。
本明細書に示された方法又はアルゴリズムの多くが、追加の行為を利用してもよく、いくつかの行為を省略してもよく、及び/又は指定された順序と異なる順序で行為を実行してもよいことは、当業者には理解されよう。
加えて、本明細書で教示されたメカニズムは、様々な形態のプログラム製品として配布されることが可能であること、及び、例示的実装形態は、実際に配布を実行するために使用される信号担持媒体の特定のタイプにかかわらず、等しく適用することは、当業者には理解されよう。信号担持媒体の例は、フロッピーディスク、ハードディスクドライブ、CD ROM、デジタルテープ、及びコンピュータメモリなどの記録可能型媒体を含むが、これらに限定されない。
上記に説明された様々な実装形態は、さらなる実装形態を提供するために組み合わされ得る。それらが本明細書における特定の教示及び定義と矛盾しない限り、2011年7月7日に出願された「U.S. Provisional Patent Application No. 61/571,908」、2013年11月20日に出願された「U.S. Patent Application No. 14/118964」、2012年7月5日に出願された「PCT/US2012/045575」、2014年1月17日に出願された「U.S. Provisional Patent Application No. 61/928702」、2016年7月15日に出願された「U.S. Patent Application No. 15/112130」、2015年1月16日に出願された「PCT/US2015/011851」、2015年11月29日に出願された「U.S. Provisional Patent Application No. 62/260565」、2016年10月31日に出願された「U.S. Provisional Patent Application No. 62/415203」、及び2016年11月1日に出願された「U.S. Provisional Patent Application No. 62/415666」を含むがこれらに限定されない、本明細書で参照され及び/又は出願データシートに列挙される米国特許、米国特許出願公開、米国特許出願、外国特許、外国特許出願、及び非特許刊行物のすべては、それら全体が参照により本明細書に組み込まれる。実装形態の態様は、様々な特許、出願、及び刊行物のシステム、回路、及び概念を利用して、さらに別の実装形態を提供するために、必要に応じて修正され得る。
これら及び他の変更は、上記の詳細な説明に照らして実装形態に対して行われてよい。一般に、続く特許請求の範囲において、使用された用語は、特許請求の範囲を、明細書及び特許請求の範囲で開示された特定の実装形態に限定すると解釈されるべきではなく、特許請求の範囲が権利を与えられるのと同等の完全な範囲に従うすべての可能な実装形態を含むと解釈されるべきである。従って、特許請求の範囲は本開示によって限定されない。

Claims (18)

  1. 機械学習システムであって、
    プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、
    前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
    複数のバッチのラベル付けされた画像セットを備える学習データを受け取ることであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、前記画像セットの各画像において描かれた前記解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、受け取ることと、
    前記受け取られた学習データを利用して前記解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることであって、前記CNNモデルは、収縮経路及び拡張経路を備え、前記収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含み、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、前記拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含み、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備える、該トレーニングすることと、
    前記トレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することと
    を行うことを特徴とする機械学習システム。
  2. 各アップサンプリングレイヤに続いて、前記CNNモデルは、スキップ接続を介して前記収縮経路における対応するレイヤからの特徴マップの連結を含むことを特徴とする請求項1に記載の機械学習システム。
  3. 機械学習システムであって、
    プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、
    前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
    複数のバッチのラベル付けされた画像セットを備える学習データを受け取ることであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、前記画像セットの各画像において描かれた前記解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、受け取ることと、
    前記受け取られた学習データを利用して前記解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることであって、前記CNNモデルは、いくつかの畳み込みレイヤを含み、前記CNNモデルは、ゼロパディング操作を使用して各畳み込みレイヤへの入力をパディングする、該トレーニングすることと、
    前記トレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することと
    を行うことを含み、
    前記CNNモデルは、収縮経路及び拡張経路を備え、前記収縮経路は、いくつかの畳み込みレイヤ及びいくつかのプーリングレイヤを含み、各プーリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、前記拡張経路は、いくつかの畳み込みレイヤ及びいくつかのアップサンプリングレイヤを含み、各アップサンプリングレイヤは、少なくとも1つの畳み込みレイヤによって先行され、学習されたカーネルを用いてアップサンプリング及び補間を行う転置畳み込み操作を備えたことを特徴とする機械学習システム。
  4. 前記画像データは、心周期全体にわたる1つ又は複数の時点における心臓を表すことを特徴とする請求項3に記載の機械学習システム。
  5. 前記画像データは、超音波データ又は可視光写真データを含むことを特徴とする
    請求項4に記載の機械学習システム。
  6. 機械学習システムであって、
    プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、
    前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
    複数のバッチのラベル付けされた画像セットを備える学習データを受け取ることであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、前記画像セットの各画像において描かれた前記解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、受け取ることと、
    前記複数のバッチのラベル付けされた画像セットにおける前記画像データの少なくとも一部の修正を介して、前記学習データを補強することと、
    前記受け取られた学習データを利用して前記解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることと、
    前記トレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することと
    を行うことを特徴とする機械学習システム。
  7. 前記少なくとも1つのプロセッサは、
    水平フリップ、垂直フリップ、切り取り量、シフト量、ズーム量、回転量、輝度レベル、又はコントラストレベルのうちの少なくとも1つに応じて、前記複数のバッチのラベル付けされた画像セットにおける前記画像データの少なくとも一部を修正する
    ことを特徴とする請求項6に記載の機械学習システム。
  8. 前記少なくとも1つのプロセッサは、
    各画像セットについて、前記画像セットが前記解剖構造の複数の部分のいずれかに対するラベルを欠損しているかどうかを識別し、
    少なくとも1つのラベルを欠損していると識別された画像セットについて、前記識別された欠損ラベルを説明するようにトレーニング損失関数を修正する
    ことを特徴とする請求項6に記載の機械学習システム。
  9. 前記画像データは、ボリューム測定用画像を含み、各ラベルは、ボリューム測定用ラベルマスク又は輪郭を含むことを特徴とする請求項6に記載の機械学習システム。
  10. 前記CNNモデルの各畳み込みレイヤは、サイズN×N×Kピクセルの畳み込みカーネルを含み、N及びKは、正の整数であることを特徴とする請求項9に記載の機械学習システム。
  11. 前記CNNモデルの各畳み込みレイヤは、サイズN×Mピクセルの畳み込みカーネルを含み、N及びMは、正の整数であることを特徴とする請求項6に記載の機械学習システム。
  12. 前記画像データは、心周期全体にわたる1つ又は複数の時点における心臓を表し、前記複数のバッチのラベル付けされた画像セットのサブセットは、乳頭筋を除外したラベルを含むことを特徴とする請求項6に記載の機械学習システム。
  13. 各処理された画像について、前記CNNモデルは、空間に関して前記処理された画像に隣接するか、又は時間に関して前記処理された画像に隣接するかの少なくとも一方である少なくとも1つの画像についてのデータを利用する
    ことを特徴とする請求項6に記載の機械学習システム
  14. 機械学習システムであって、
    プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、
    前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備え、前記少なくとも1つのプロセッサは、
    複数のバッチのラベル付けされた画像セットを備える学習データを受け取ることであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、前記画像セットの各画像において描かれた前記解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、受け取ることと、
    前記受け取られた学習データを利用して前記解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングすることであって、前記CNNモデルは、前記少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶された複数のハイパーパラメータを含み、
    複数の構成に従って前記CNNモデルを構成することであって、各構成は、前記ハイパーパラメータの値の異なる組み合わせを備える、該構成することと、
    前記複数の構成の各々について、前記CNNモデルの精度を検証することと、
    前記検証により決定された前記精度に少なくとも部分的に基づいて、少なくとも1つの構成を選択することと、
    前記トレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶することと
    を行うことを特徴とする機械学習システム。
  15. プロセッサ実行可能命令又はデータのうちの少なくとも1つを記憶する少なくとも1つの非一時的プロセッサ可読記憶媒体と、前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサとを備える機械学習システムを動作させる方法であって、
    前記少なくとも1つのプロセッサによって、複数のバッチのラベル付けされた画像セットを備える学習データを受け取るステップであって、各画像セットは、解剖構造を表す画像データを備え、各画像セットは、前記画像セットの各画像において描かれた前記解剖構造の特定部分の領域を識別する少なくとも1つのラベルを含む、該受け取るステップと、
    前記少なくとも1つのプロセッサによって、各画像セットについて、前記画像セットが前記解剖構造の複数の部分のいずれかに対するラベルを欠損しているかどうかを識別するステップと、
    前記少なくとも1つのプロセッサによって、少なくとも1つのラベルを欠損していると識別された画像セットについて、前記識別された欠損ラベルを説明するようにトレーニング損失関数を修正するステップと、
    前記少なくとも1つのプロセッサによって、前記受け取られた学習データを利用して前記解剖構造の少なくとも一部分をセグメント化するように完全畳み込みニューラルネットワーク(CNN)モデルをトレーニングするステップと、
    前記少なくとも1つのプロセッサによって、前記トレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に記憶するステップと
    を含むことを特徴とする方法。
  16. 各処理された画像について、前記CNNモデルは、空間に関して前記処理された画像に隣接する少なくとも1つの画像についてのデータを利用し、時間に関して前記処理された画像に隣接する少なくとも1つの画像についてのデータを利用することを特徴とする請求項15に記載の方法。
  17. 各処理された画像について、前記CNNモデルは、時間情報又は位相情報のうちの少なくとも1つを利用することを特徴とする請求項15に記載の方法。
  18. 前記画像データは、定常自由歳差運動(SSFP)磁気共鳴イメージング(MRI)データ又は4DフローMRIデータのうちの少なくとも1つを含むことを特徴とする請求項15に記載の方法。
JP2018527794A 2015-11-29 2016-11-29 自動化された心臓ボリュームセグメンテーション Active JP6993334B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562260565P 2015-11-29 2015-11-29
US62/260,565 2015-11-29
US201662415666P 2016-11-01 2016-11-01
US62/415,666 2016-11-01
PCT/US2016/064028 WO2017091833A1 (en) 2015-11-29 2016-11-29 Automated cardiac volume segmentation

Publications (3)

Publication Number Publication Date
JP2019504659A JP2019504659A (ja) 2019-02-21
JP2019504659A5 JP2019504659A5 (ja) 2019-12-05
JP6993334B2 true JP6993334B2 (ja) 2022-01-13

Family

ID=58763712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018527794A Active JP6993334B2 (ja) 2015-11-29 2016-11-29 自動化された心臓ボリュームセグメンテーション

Country Status (5)

Country Link
US (1) US10871536B2 (ja)
EP (1) EP3380859A4 (ja)
JP (1) JP6993334B2 (ja)
CN (1) CN108603922A (ja)
WO (1) WO2017091833A1 (ja)

Families Citing this family (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106170246A (zh) 2014-01-17 2016-11-30 阿特瑞斯公司 用于四维(4d)流磁共振成像的设备、方法和产品
US10331852B2 (en) 2014-01-17 2019-06-25 Arterys Inc. Medical imaging and efficient sharing of medical imaging information
US10588589B2 (en) * 2014-07-21 2020-03-17 Zebra Medical Vision Ltd. Systems and methods for prediction of osteoporotic fracture risk
US10039513B2 (en) 2014-07-21 2018-08-07 Zebra Medical Vision Ltd. Systems and methods for emulating DEXA scores based on CT images
US10871536B2 (en) 2015-11-29 2020-12-22 Arterys Inc. Automated cardiac volume segmentation
US20170154273A1 (en) * 2015-11-30 2017-06-01 Seematics Systems Ltd System and method for automatically updating inference models
US11177022B2 (en) * 2016-10-17 2021-11-16 International Business Machines Corporation Workflow for automatic measurement of doppler pipeline
CN109844865B (zh) 2016-10-27 2021-03-30 普罗热尼奇制药公司 用于医学图像分析的网络、决策支持系统和相关图形用户界面(gui)应用
KR102631381B1 (ko) * 2016-11-07 2024-01-31 삼성전자주식회사 컨볼루션 신경망 처리 방법 및 장치
EP3553739B1 (en) * 2016-12-06 2023-12-06 Konica Minolta, Inc. Image recognition system and image recognition method
US11132543B2 (en) * 2016-12-28 2021-09-28 Nvidia Corporation Unconstrained appearance-based gaze estimation
US11113800B2 (en) 2017-01-18 2021-09-07 Nvidia Corporation Filtering image data using a neural network
US10600184B2 (en) 2017-01-27 2020-03-24 Arterys Inc. Automated segmentation utilizing fully convolutional networks
US10580159B2 (en) * 2017-01-31 2020-03-03 Siemens Healthcare Gmbh Coarse orientation detection in image data
US10997502B1 (en) 2017-04-13 2021-05-04 Cadence Design Systems, Inc. Complexity optimization of trainable networks
KR102475826B1 (ko) * 2017-04-21 2022-12-09 삼성메디슨 주식회사 영상 분할 방법 및 그 전자 장치
US10467759B2 (en) * 2017-07-27 2019-11-05 Siemens Healthcare Gmbh Intelligent contouring of anatomy with structured user click points
CN108229479B (zh) 2017-08-01 2019-12-31 北京市商汤科技开发有限公司 语义分割模型的训练方法和装置、电子设备、存储介质
US10753997B2 (en) * 2017-08-10 2020-08-25 Siemens Healthcare Gmbh Image standardization using generative adversarial networks
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
EP3443888A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for displaying automatically segmented individual parts of anatomy in a surgical navigation system
EP3445048A1 (en) 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
CN109426773A (zh) * 2017-08-24 2019-03-05 浙江宇视科技有限公司 一种道路识别方法和装置
CN107811626A (zh) * 2017-09-10 2018-03-20 天津大学 一种基于一维卷积神经网络和s变换的心律失常分类方法
US9947103B1 (en) * 2017-10-03 2018-04-17 StradVision, Inc. Learning method and learning device for improving image segmentation and testing method and testing device using the same
US10043113B1 (en) * 2017-10-04 2018-08-07 StradVision, Inc. Method and device for generating feature maps by using feature upsampling networks
US10223610B1 (en) * 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
GB2567636B (en) * 2017-10-17 2021-11-10 Perspectum Diagnostics Ltd Method and apparatus for imaging an organ
US10783640B2 (en) * 2017-10-30 2020-09-22 Beijing Keya Medical Technology Co., Ltd. Systems and methods for image segmentation using a scalable and compact convolutional neural network
US10565707B2 (en) * 2017-11-02 2020-02-18 Siemens Healthcare Gmbh 3D anisotropic hybrid network: transferring convolutional features from 2D images to 3D anisotropic volumes
WO2019085985A1 (en) 2017-11-02 2019-05-09 Shenzhen United Imaging Healthcare Co., Ltd. Systems and methods for generating semantic information for scanning image
CN107833229A (zh) * 2017-11-02 2018-03-23 上海联影医疗科技有限公司 信息处理方法、装置及系统
IL274426B2 (en) 2017-11-14 2024-01-01 Magic Leap Inc Discovering and describing a fully complex point of interest using homographic processing
US11551353B2 (en) 2017-11-22 2023-01-10 Arterys Inc. Content based image retrieval for lesion analysis
CN107818314B (zh) * 2017-11-22 2019-03-19 北京达佳互联信息技术有限公司 脸部图像处理方法、装置及服务器
CN110121293B (zh) * 2017-11-24 2023-07-04 佳能医疗系统株式会社 医用数据处理装置、成像装置及学习完毕模型生成方法
CN109886992A (zh) * 2017-12-06 2019-06-14 深圳博脑医疗科技有限公司 用于分割mri图像中异常信号区的全卷积网络模型训练方法
CN108013904B (zh) * 2017-12-15 2020-12-25 无锡祥生医疗科技股份有限公司 心脏超声成像方法
JP7246903B2 (ja) * 2017-12-20 2023-03-28 キヤノンメディカルシステムズ株式会社 医用信号処理装置
WO2019124076A1 (ja) * 2017-12-20 2019-06-27 キヤノンメディカルシステムズ株式会社 医用信号処理装置
US10973486B2 (en) 2018-01-08 2021-04-13 Progenics Pharmaceuticals, Inc. Systems and methods for rapid neural network-based image segmentation and radiopharmaceutical uptake determination
US10896508B2 (en) * 2018-02-07 2021-01-19 International Business Machines Corporation System for segmentation of anatomical structures in cardiac CTA using fully convolutional neural networks
WO2019159324A1 (ja) * 2018-02-16 2019-08-22 パナソニックIpマネジメント株式会社 処理方法およびそれを利用した処理装置
US11534136B2 (en) * 2018-02-26 2022-12-27 Siemens Medical Solutions Usa, Inc. Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
US11024025B2 (en) * 2018-03-07 2021-06-01 University Of Virginia Patent Foundation Automatic quantification of cardiac MRI for hypertrophic cardiomyopathy
JP2021518009A (ja) * 2018-03-12 2021-07-29 エルビス・コーポレイションLVIS Corporation 厚い画像スライスから薄い画像スライスを生成するためのシステム及び方法
WO2019178404A1 (en) * 2018-03-14 2019-09-19 The Regents Of The University Of California Automated cardiac function assessment by echocardiography
US10891731B2 (en) 2018-05-07 2021-01-12 Zebra Medical Vision Ltd. Systems and methods for pre-processing anatomical images for feeding into a classification neural network
US10949968B2 (en) 2018-05-07 2021-03-16 Zebra Medical Vision Ltd. Systems and methods for detecting an indication of a visual finding type in an anatomical image
US10706545B2 (en) * 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
CN108596338A (zh) * 2018-05-09 2018-09-28 四川斐讯信息技术有限公司 一种神经网络训练集的获取方法及其系统
EP3570249A1 (en) 2018-05-14 2019-11-20 Koninklijke Philips N.V. Preprocessing medical image data for machine learning
KR102184755B1 (ko) 2018-05-31 2020-11-30 서울대학교 산학협력단 안면 특화 초 고화질 심층 신경망 학습 장치 및 방법
JP7051595B2 (ja) * 2018-06-05 2022-04-11 ザイオソフト株式会社 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US10726555B2 (en) 2018-06-06 2020-07-28 International Business Machines Corporation Joint registration and segmentation of images using deep learning
US11854703B2 (en) 2018-06-11 2023-12-26 Arterys Inc. Simulating abnormalities in medical images with generative adversarial networks
US11125844B2 (en) * 2018-07-06 2021-09-21 The Board Of Trustees Of The Leland Stanford Junior University Deep learning based methods to accelerate multi-spectral imaging
CN108986891A (zh) * 2018-07-24 2018-12-11 北京市商汤科技开发有限公司 医疗影像处理方法及装置、电子设备及存储介质
CN109285157A (zh) * 2018-07-24 2019-01-29 深圳先进技术研究院 左心室心肌分割方法、装置及计算机可读存储介质
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
CN109190682B (zh) * 2018-08-13 2020-12-18 北京安德医智科技有限公司 一种基于3d核磁共振影像的脑部异常的分类方法及设备
JP7134017B2 (ja) * 2018-08-14 2022-09-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7277536B2 (ja) * 2018-08-14 2023-05-19 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
JP7433297B2 (ja) * 2018-08-24 2024-02-19 アーテリーズ インコーポレイテッド 深層学習ベースのコレジストレーション
US11954881B2 (en) 2018-08-28 2024-04-09 Apple Inc. Semi-supervised learning using clustering as an additional constraint
US11164067B2 (en) * 2018-08-29 2021-11-02 Arizona Board Of Regents On Behalf Of Arizona State University Systems, methods, and apparatuses for implementing a multi-resolution neural network for use with imaging intensive applications including medical imaging
US20210326619A1 (en) * 2018-08-31 2021-10-21 Canaan Bright Sight Co., Ltd Image recognition processing method and apparatus
CN109242865B (zh) * 2018-09-26 2020-09-25 上海联影智能医疗科技有限公司 基于多图谱的医学图像自动分区系统、方法、装置及存储介质
US11227390B2 (en) 2018-09-26 2022-01-18 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for image processing
US11475991B2 (en) 2018-09-28 2022-10-18 Varian Medical Systems International Ag Methods and systems for adaptive radiotherapy treatment planning using deep learning engines
US20200104695A1 (en) * 2018-09-28 2020-04-02 Varian Medical Systems International Ag Methods and systems for radiotherapy treatment planning using deep learning engines
EP3864618A1 (en) * 2018-10-12 2021-08-18 The Medical College of Wisconsin, Inc. Medical image segmentation using deep learning models trained with random dropout and/or standardized inputs
CN109407067B (zh) * 2018-10-13 2023-06-27 中国人民解放军海军航空大学 基于时频图卷积神经网络的雷达动目标检测与分类一体化方法
CN109360210B (zh) 2018-10-16 2019-10-25 腾讯科技(深圳)有限公司 图像分割方法、装置、计算机设备及存储介质
KR20200043005A (ko) * 2018-10-17 2020-04-27 삼성전자주식회사 이미지 인식 모델을 트레이닝시키는 장치 및 방법과 이미지 인식 장치 및 방법
US11464467B2 (en) * 2018-10-30 2022-10-11 Dgnct Llc Automated tooth localization, enumeration, and diagnostic system and method
US10991091B2 (en) * 2018-10-30 2021-04-27 Diagnocat Inc. System and method for an automated parsing pipeline for anatomical localization and condition classification
CN109583942B (zh) * 2018-11-07 2021-05-11 浙江工业大学 一种基于密集网络的多任务卷积神经网络顾客行为分析方法
US10799183B2 (en) * 2018-11-07 2020-10-13 General Electric Company Methods and systems for whole body imaging
CN109410289B (zh) * 2018-11-09 2021-11-12 中国科学院精密测量科学与技术创新研究院 一种深度学习的高欠采样超极化气体肺部mri重建方法
US20200155114A1 (en) * 2018-11-15 2020-05-21 Samsung Medison Co., Ltd. Ultrasound diagnosis apparatus for determining abnormality of fetal heart, and operating method thereof
CN109614991A (zh) * 2018-11-19 2019-04-12 成都信息工程大学 一种基于Attention的多尺度扩张性心肌的分割分类方法
CN110009640B (zh) * 2018-11-20 2023-09-26 腾讯科技(深圳)有限公司 处理心脏视频的方法、设备和可读介质
EP3660785A1 (en) * 2018-11-30 2020-06-03 Laralab UG Method and system for providing an at least 3-dimensional medical image segmentation of a structure of an internal organ
CN109727270B (zh) * 2018-12-10 2021-03-26 杭州帝视科技有限公司 心脏核磁共振图像的运动机理和纹理特征分析方法和系统
CN109741395B (zh) * 2018-12-14 2021-07-23 北京市商汤科技开发有限公司 双心室量化方法、装置、电子设备及存储介质
CN109785336B (zh) * 2018-12-18 2020-11-27 深圳先进技术研究院 基于多路径卷积神经网络模型的图像分割方法及装置
EP3671660A1 (en) * 2018-12-20 2020-06-24 Dassault Systèmes Designing a 3d modeled object via user-interaction
KR20200081044A (ko) * 2018-12-27 2020-07-07 삼성전자주식회사 뉴럴 네트워크의 컨볼루션 연산을 처리하는 방법 및 장치
KR102021515B1 (ko) * 2018-12-27 2019-09-16 (주)제이엘케이인스펙션 뇌혈관 질환 학습 장치, 뇌혈관 질환 검출 장치, 뇌혈관 질환 학습 방법 및 뇌혈관 질환 검출 방법
TWI697010B (zh) * 2018-12-28 2020-06-21 國立成功大學 醫療矢面影像的取得方法、神經網路的訓練方法及計算機裝置
CN113272859A (zh) 2019-01-07 2021-08-17 西尼诊断公司 用于平台中立性全身图像分段的系统及方法
US11687771B2 (en) * 2019-01-23 2023-06-27 Samsung Electronics Co., Ltd. Platform for concurrent execution of GPU operations
US10813612B2 (en) 2019-01-25 2020-10-27 Cleerly, Inc. Systems and method of characterizing high risk plaques
US10410352B1 (en) * 2019-01-25 2019-09-10 StradVision, Inc. Learning method and learning device for improving segmentation performance to be used for detecting events including pedestrian event, vehicle event, falling event and fallen event using edge loss and test method and test device using the same
US10402977B1 (en) * 2019-01-25 2019-09-03 StradVision, Inc. Learning method and learning device for improving segmentation performance in road obstacle detection required to satisfy level 4 and level 5 of autonomous vehicles using laplacian pyramid network and testing method and testing device using the same
US11950877B2 (en) 2019-02-05 2024-04-09 University Of Virginia Patent Foundation System and method for fully automatic LV segmentation of myocardial first-pass perfusion images
CN109978888B (zh) * 2019-02-18 2023-07-28 平安科技(深圳)有限公司 一种图像分割方法、装置及计算机可读存储介质
CN109949318B (zh) * 2019-03-07 2023-11-14 西安电子科技大学 基于多模态影像的全卷积神经网络癫痫病灶分割方法
US11125845B2 (en) 2019-03-22 2021-09-21 Canon Medical Systems Corporation Apparatus and method for deep learning to mitigate artifacts arising in simultaneous multi slice (SMS) magnetic resonance imaging (MRI)
CN109949299A (zh) * 2019-03-25 2019-06-28 东南大学 一种心脏医学图像自动分割方法
WO2020194664A1 (ja) * 2019-03-28 2020-10-01 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
JP7105369B2 (ja) * 2019-03-28 2022-07-22 オリンパス株式会社 トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
CN111767760A (zh) * 2019-04-01 2020-10-13 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备及存储介质
CN110110617B (zh) 2019-04-22 2021-04-20 腾讯科技(深圳)有限公司 医学影像分割方法、装置、电子设备和存储介质
TW202105407A (zh) 2019-04-24 2021-02-01 美商普吉尼製藥公司 用於偵測轉移之骨掃描影像之自動及互動式分析系統及方法
CN113748443A (zh) 2019-04-24 2021-12-03 普罗热尼奇制药公司 用于交互式调整核医学图像中的强度窗口设定的系统和方法
CN110136804B (zh) * 2019-04-25 2021-11-16 深圳向往之医疗科技有限公司 一种心肌质量计算方法、系统及电子设备
CN110136067B (zh) * 2019-05-27 2022-09-06 商丘师范学院 一种针对超分辨率b超影像的实时影像生成方法
CN110188720A (zh) * 2019-06-05 2019-08-30 上海云绅智能科技有限公司 一种基于卷积神经网络的目标检测方法及系统
JP7075674B2 (ja) * 2019-06-17 2022-05-26 株式会社アクセル 学習方法、コンピュータプログラム、分類器、生成器、及び処理システム
US10748650B1 (en) * 2019-07-17 2020-08-18 Richard Ricci Machine learning of dental images for E-commerce
CN110243827B (zh) * 2019-07-18 2020-11-20 华中科技大学 一种适用于光透明样本的快速三维成像方法
CN110490878A (zh) * 2019-07-29 2019-11-22 上海商汤智能科技有限公司 图像处理方法及装置、电子设备和存储介质
US10937158B1 (en) 2019-08-13 2021-03-02 Hong Kong Applied Science and Technology Research Institute Company Limited Medical image segmentation based on mixed context CNN model
CN110731777B (zh) * 2019-09-16 2023-07-25 平安科技(深圳)有限公司 基于图像识别的左心室测量方法、装置以及计算机设备
CN110852987B (zh) * 2019-09-24 2022-04-22 西安交通大学 基于深形态学的血管斑块检测方法、设备及存储介质
US11564621B2 (en) 2019-09-27 2023-01-31 Progenies Pharmacenticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
US11544407B1 (en) 2019-09-27 2023-01-03 Progenics Pharmaceuticals, Inc. Systems and methods for secure cloud-based medical image upload and processing
US11900597B2 (en) 2019-09-27 2024-02-13 Progenics Pharmaceuticals, Inc. Systems and methods for artificial intelligence-based image analysis for cancer assessment
KR102347496B1 (ko) * 2019-10-08 2022-01-10 사회복지법인 삼성생명공익재단 방사선 치료 계획 수립을 위한 인공지능 기반의 장기 및 종양 이미지 분할 시스템 및 방법
CN112365504A (zh) * 2019-10-29 2021-02-12 杭州脉流科技有限公司 Ct左心室分割方法、装置、设备和存储介质
CN112749593A (zh) * 2019-10-31 2021-05-04 通用电气精准医疗有限责任公司 医学成像系统、识别检测对象的体位的方法、存储介质
US11232859B2 (en) * 2019-11-07 2022-01-25 Siemens Healthcare Gmbh Artificial intelligence for basal and apical slice identification in cardiac MRI short axis acquisitions
US11514573B2 (en) * 2019-11-27 2022-11-29 Shanghai United Imaging Intelligence Co., Ltd. Estimating object thickness with neural networks
US11216922B2 (en) * 2019-12-17 2022-01-04 Capital One Services, Llc Systems and methods for recognition of user-provided images
WO2021119739A1 (en) * 2019-12-17 2021-06-24 Abyss Solutions Pty Ltd Method and system for detecting physical features of objects
US20220392065A1 (en) 2020-01-07 2022-12-08 Cleerly, Inc. Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
AU2021205821A1 (en) 2020-01-07 2022-07-21 Cleerly, Inc. Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
US11232564B2 (en) 2020-01-07 2022-01-25 Cleerly, Inc. Systems, methods, and devices for medical image analysis, diagnosis, risk stratification, decision making and/or disease tracking
GB202003239D0 (en) * 2020-03-05 2020-04-22 Mirada Medical Ltd System and method for interactive contouring of medical images
EP3878361B1 (en) * 2020-03-12 2024-04-24 Siemens Healthineers AG Method and device for determining a cardiac phase in magnet resonance imaging
CN111400016B (zh) * 2020-03-25 2023-05-16 新华三信息安全技术有限公司 一种调用应用程序接口函数的方法和设备
US11205287B2 (en) 2020-03-27 2021-12-21 International Business Machines Corporation Annotation of digital images for machine learning
JP7092312B2 (ja) * 2020-03-31 2022-06-28 東芝情報システム株式会社 平面データ処理装置、平面データ処理方法及び平面データ処理用プログラム
JP7216264B2 (ja) * 2020-03-31 2023-02-01 東芝情報システム株式会社 平面データ処理装置、平面データ処理方法及び平面データ処理用プログラム
US11386988B2 (en) 2020-04-23 2022-07-12 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
US11321844B2 (en) 2020-04-23 2022-05-03 Exini Diagnostics Ab Systems and methods for deep-learning-based segmentation of composite images
CN111666972A (zh) * 2020-04-28 2020-09-15 清华大学 基于深度神经网络的肝部病例图像分类方法及系统
JP2023524038A (ja) 2020-05-01 2023-06-08 マジック リープ, インコーポレイテッド 階層正規化がかけられる画像記述子ネットワーク
JP2023525287A (ja) * 2020-05-11 2023-06-15 エコーノース インコーポレーテッド ラベルなしの動き学習
US11532084B2 (en) * 2020-05-11 2022-12-20 EchoNous, Inc. Gating machine learning predictions on medical ultrasound images via risk and uncertainty quantification
US11523801B2 (en) * 2020-05-11 2022-12-13 EchoNous, Inc. Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured
CN111768391B (zh) * 2020-07-01 2024-04-05 杭州脉流科技有限公司 一种基于ct影像的全自动心脏功能学分析方法、装置、计算机设备以及存储介质
US11721428B2 (en) 2020-07-06 2023-08-08 Exini Diagnostics Ab Systems and methods for artificial intelligence-based image analysis for detection and characterization of lesions
US11556742B2 (en) * 2020-08-03 2023-01-17 International Business Machines Corporation Training machine learning models to exclude ambiguous data samples
CN112184840B (zh) 2020-09-22 2022-09-02 上海交通大学 基于多尺度结构化字典学习的3d点云压缩系统
US11636593B2 (en) 2020-11-06 2023-04-25 EchoNous, Inc. Robust segmentation through high-level image understanding
US20240005650A1 (en) 2020-11-20 2024-01-04 Bayer Aktiengesellschaft Representation learning
US11562512B2 (en) * 2020-12-09 2023-01-24 Raytheon Company System and method for generating and displaying contours
EP4298590A2 (en) 2021-02-26 2024-01-03 Bayer Aktiengesellschaft Actor-critic approach for generating synthetic images
WO2022255820A1 (ko) * 2021-06-03 2022-12-08 연세대학교 산학협력단 심방벽 두께를 산출하는 장치 및 산출 방법
CN113570569B (zh) * 2021-07-26 2024-04-16 东北大学 一种基于深度学习的心脏室间隔抖动自动检测系统
CN113628230A (zh) * 2021-08-10 2021-11-09 上海慧虎信息科技有限公司 心脏核磁共振图像中心室心肌分割模型训练方法、分割方法及装置
KR102607446B1 (ko) * 2021-08-27 2023-11-30 주식회사 팬토믹스 심실 구축률 측정을 통한 심부전 진단 방법
WO2023069917A1 (en) * 2021-10-22 2023-04-27 The Board Of Regents Of The University Of Texas System Ai-assisted clinician contour reviewing and revision
WO2023075480A1 (ko) * 2021-10-28 2023-05-04 주식회사 온택트헬스 의료 영상의 예측된 목적 부위에 대한 임상 파라미터를 제공하기 위한 방법, 장치, 레이블링을 위한 의료 영상을 선별하기 위한 방법 및 장치
US20230289963A1 (en) 2022-03-10 2023-09-14 Cleerly, Inc. Systems, devices, and methods for non-invasive image-based plaque analysis and risk determination
WO2023183478A1 (en) * 2022-03-23 2023-09-28 University Of Southern California Automated vessel wall segmentation system and method
WO2023199088A1 (en) * 2022-04-11 2023-10-19 University Of Leeds Determination of cardiac functional indices
US20240005514A1 (en) * 2022-07-01 2024-01-04 Q Bio, Inc. Dynamic segmentation of anatomical structures
CN115239720A (zh) * 2022-09-22 2022-10-25 安徽省儿童医院(安徽省新华医院、安徽省儿科医学研究所、复旦大学附属儿科医院安徽医院) 基于经典Graf的DDH超声影像人工智能诊断系统及方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090080745A1 (en) 2007-09-21 2009-03-26 Yefeng Zheng Method and system for measuring left ventricle volume
US20110123253A1 (en) 2009-11-20 2011-05-26 Boku-Undo Co., Ltd. Illustrating tool
JP2011523147A (ja) 2008-06-12 2011-08-04 ルノディ,フランク セバスティアン 画像処理、特に医療画像を処理するための方法及び装置
JP2011527055A (ja) 2008-07-03 2011-10-20 エヌイーシー ラボラトリーズ アメリカ インク 有糸分裂像検出装置および計数システム、および有糸分裂像を検出して計数する方法
JP2012512730A (ja) 2010-03-31 2012-06-07 ザクリトエ、アクツィオネルノエ、オブシェストボ、“インパルス” 医療用途のデジタルx線画像の対象領域における明るさレベルを計算する方法
US20130336553A1 (en) 2010-08-13 2013-12-19 Smith & Nephew, Inc. Detection of anatomical landmarks
US20150117760A1 (en) 2013-10-30 2015-04-30 Nec Laboratories America, Inc. Regionlets with Shift Invariant Neural Patterns for Object Detection
JP2015131023A (ja) 2014-01-14 2015-07-23 株式会社東芝 磁気共鳴イメージング装置
JP2015154918A (ja) 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. 病変検出装置及び方法
US20150238148A1 (en) 2013-10-17 2015-08-27 Siemens Aktiengesellschaft Method and system for anatomical object detection using marginal space deep neural networks

Family Cites Families (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2776844B2 (ja) 1988-11-30 1998-07-16 株式会社日立製作所 磁気共鳴動体イメージング装置
US5115812A (en) 1988-11-30 1992-05-26 Hitachi, Ltd. Magnetic resonance imaging method for moving object
JP3137378B2 (ja) 1991-09-25 2001-02-19 株式会社東芝 磁気共鳴イメージング装置
JP3452400B2 (ja) 1994-08-02 2003-09-29 株式会社日立メディコ 磁気共鳴イメージング装置
JP3501182B2 (ja) 1994-11-22 2004-03-02 株式会社日立メディコ 流速画像を算出できる磁気共鳴イメージング装置
JP2000506642A (ja) * 1996-02-09 2000-05-30 サーノフ コーポレイション 不確定の訓練データを用いてオブジェクトを検出及び分類するようにニューラルネットワークを訓練する方法及び装置
US6324532B1 (en) * 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
AU4827700A (en) 1999-05-05 2000-11-17 Healthgram, Inc. Portable health record
US6711433B1 (en) 1999-09-30 2004-03-23 Siemens Corporate Research, Inc. Method for providing a virtual contrast agent for augmented angioscopy
US6934698B2 (en) 2000-12-20 2005-08-23 Heart Imaging Technologies Llc Medical image management system
US8166381B2 (en) 2000-12-20 2012-04-24 Heart Imaging Technologies, Llc Medical image management system
DE10117685C2 (de) 2001-04-09 2003-02-27 Siemens Ag Verfahren zur Bearbeitung von Objekten eines standardisierten Kommunikationsprotokolls
US7139417B2 (en) 2001-08-14 2006-11-21 Ge Medical Systems Global Technology Company Llc Combination compression and registration techniques to implement temporal subtraction as an application service provider to detect changes over time to medical imaging
US7158692B2 (en) 2001-10-15 2007-01-02 Insightful Corporation System and method for mining quantitive information from medical images
US7355597B2 (en) 2002-05-06 2008-04-08 Brown University Research Foundation Method, apparatus and computer program product for the interactive rendering of multivalued volume data with layered complementary values
GB0219408D0 (en) 2002-08-20 2002-09-25 Mirada Solutions Ltd Computation o contour
CN100377165C (zh) 2003-04-24 2008-03-26 皇家飞利浦电子股份有限公司 无创式左心室的容积测定
US7254436B2 (en) 2003-05-30 2007-08-07 Heart Imaging Technologies, Llc Dynamic magnetic resonance angiography
CN101208857B (zh) 2004-08-19 2011-03-09 奥蒂斯电梯公司 用单相功率操作三相设备
US7292032B1 (en) 2004-09-28 2007-11-06 General Electric Company Method and system of enhanced phase suppression for phase-contrast MR imaging
US7127095B2 (en) 2004-10-15 2006-10-24 The Brigham And Women's Hospital, Inc. Factor analysis in medical imaging
EP1659511A1 (en) 2004-11-18 2006-05-24 Cedara Software Corp. Image archiving system and method for handling new and legacy archives
US7736313B2 (en) 2004-11-22 2010-06-15 Carestream Health, Inc. Detecting and classifying lesions in ultrasound images
US8000768B2 (en) 2005-01-10 2011-08-16 Vassol Inc. Method and system for displaying blood flow
US20070061460A1 (en) 2005-03-24 2007-03-15 Jumpnode Systems,Llc Remote access
US7567707B2 (en) * 2005-12-20 2009-07-28 Xerox Corporation Red eye detection and correction
CN101243980B (zh) 2006-12-04 2010-12-22 株式会社东芝 X射线计算机断层成像装置和医用图像处理装置
US7764846B2 (en) * 2006-12-12 2010-07-27 Xerox Corporation Adaptive red eye correction
US8369590B2 (en) 2007-05-21 2013-02-05 Cornell University Method for segmenting objects in images
JP5191787B2 (ja) 2008-04-23 2013-05-08 株式会社日立メディコ X線ct装置
US8483466B2 (en) 2008-05-22 2013-07-09 Hitachi Medical Corporation Magnetic resonance imaging apparatus and blood vessel image acquiring method
US20110230756A1 (en) 2008-09-30 2011-09-22 University Of Cape Town Fluid flow assessment
JP5422171B2 (ja) 2008-10-01 2014-02-19 株式会社東芝 X線画像診断装置
US8148984B2 (en) 2008-10-03 2012-04-03 Wisconsin Alumni Research Foundation Method for magnitude constrained phase contrast magnetic resonance imaging
US8301224B2 (en) 2008-10-09 2012-10-30 Siemens Aktiengesellschaft System and method for automatic, non-invasive diagnosis of pulmonary hypertension and measurement of mean pulmonary arterial pressure
EP2355702A1 (en) 2008-11-13 2011-08-17 Avid Radiopharmaceuticals, Inc. Histogram-based analysis method for the detection and diagnosis of neurodegenerative diseases
US20100158332A1 (en) * 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US8457373B2 (en) 2009-03-16 2013-06-04 Siemens Aktiengesellschaft System and method for robust 2D-3D image registration
US10303986B2 (en) 2009-04-07 2019-05-28 Kayvan Najarian Automated measurement of brain injury indices using brain CT images, injury data, and machine learning
US8527251B2 (en) 2009-05-01 2013-09-03 Siemens Aktiengesellschaft Method and system for multi-component heart and aorta modeling for decision support in cardiac disease
US20110182493A1 (en) 2010-01-25 2011-07-28 Martin Huber Method and a system for image annotation
US8805048B2 (en) 2010-04-01 2014-08-12 Mark Batesole Method and system for orthodontic diagnosis
US8938113B2 (en) * 2010-07-26 2015-01-20 Kjaya, Llc Adaptive visualization for direct physician use
US8897519B2 (en) 2010-09-28 2014-11-25 Siemens Aktiengesellschaft System and method for background phase correction for phase contrast flow images
US8374414B2 (en) 2010-11-05 2013-02-12 The Hong Kong Polytechnic University Method and system for detecting ischemic stroke
CN103262120B (zh) 2010-12-09 2017-03-22 皇家飞利浦电子股份有限公司 图像数据的体积描绘
US8600476B2 (en) 2011-04-21 2013-12-03 Siemens Aktiengesellschaft Patient support table control system for use in MR imaging
US20140313222A1 (en) 2011-06-27 2014-10-23 Koninklijke Philips Electronics N.V. Anatomical tagging of findings in image data of serial studies
JP6006307B2 (ja) 2011-07-07 2016-10-12 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー ボリューム測定位相コントラストmriによる総合的心血管解析
US9585568B2 (en) 2011-09-11 2017-03-07 Steven D. Wolff Noninvasive methods for determining the pressure gradient across a heart valve without using velocity data at the valve orifice
US8837800B1 (en) 2011-10-28 2014-09-16 The Board Of Trustees Of The Leland Stanford Junior University Automated detection of arterial input function and/or venous output function voxels in medical imaging
US8682049B2 (en) 2012-02-14 2014-03-25 Terarecon, Inc. Cloud-based medical image processing system with access control
US9014781B2 (en) 2012-04-19 2015-04-21 General Electric Company Systems and methods for magnetic resonance angiography
US9495752B2 (en) 2012-09-27 2016-11-15 Siemens Product Lifecycle Management Software Inc. Multi-bone segmentation for 3D computed tomography
US9165360B1 (en) 2012-09-27 2015-10-20 Zepmed, Llc Methods, systems, and devices for automated analysis of medical scans
WO2014120953A1 (en) 2013-01-31 2014-08-07 The Regents Of The University Of California Method for accurate and robust cardiac motion self-gating in magnetic resonance imaging
US9898659B2 (en) 2013-05-19 2018-02-20 Commonwealth Scientific And Industrial Research Organisation System and method for remote medical diagnosis
US9741116B2 (en) * 2013-08-29 2017-08-22 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
US9406142B2 (en) * 2013-10-08 2016-08-02 The Trustees Of The University Of Pennsylvania Fully automatic image segmentation of heart valves using multi-atlas label fusion and deformable medial modeling
US9700219B2 (en) * 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US20150139517A1 (en) 2013-11-15 2015-05-21 University Of Iowa Research Foundation Methods And Systems For Calibration
CN106170246A (zh) * 2014-01-17 2016-11-30 阿特瑞斯公司 用于四维(4d)流磁共振成像的设备、方法和产品
US9430829B2 (en) 2014-01-30 2016-08-30 Case Western Reserve University Automatic detection of mitosis using handcrafted and convolutional neural network features
US20150324690A1 (en) 2014-05-08 2015-11-12 Microsoft Corporation Deep Learning Training System
EP4343707A3 (en) 2014-05-15 2024-04-24 Brainlab AG Indication-dependent display of a medical image
KR20160010157A (ko) 2014-07-18 2016-01-27 삼성전자주식회사 차원 축소 기반 3차원 컴퓨터 보조 진단 장치 및 방법
US9707400B2 (en) * 2014-08-15 2017-07-18 Medtronic, Inc. Systems, methods, and interfaces for configuring cardiac therapy
EP3043318B1 (en) 2015-01-08 2019-03-13 Imbio Analysis of medical images and creation of a report
DE102015000789A1 (de) 2015-01-26 2016-07-28 Senvion Gmbh Schwingungsdämpfer für eine Windenergieanlage, Verfahren zum Einbau eines Schwingungsdämpfers in einen Turm einer Windenergieanlage und Windenergieanlage
KR20190047108A (ko) 2015-03-03 2019-05-07 난토믹스, 엘엘씨 앙상블-기반 연구 추천 시스템 및 방법
US10115194B2 (en) 2015-04-06 2018-10-30 IDx, LLC Systems and methods for feature detection in retinal images
US9633306B2 (en) 2015-05-07 2017-04-25 Siemens Healthcare Gmbh Method and system for approximating deep neural networks for anatomical object detection
US10176408B2 (en) 2015-08-14 2019-01-08 Elucid Bioimaging Inc. Systems and methods for analyzing pathologies utilizing quantitative imaging
WO2017031088A1 (en) 2015-08-15 2017-02-23 Salesforce.Com, Inc Three-dimensional (3d) convolution with 3d batch normalization
US9569736B1 (en) * 2015-09-16 2017-02-14 Siemens Healthcare Gmbh Intelligent medical image landmark detection
US9792531B2 (en) * 2015-09-16 2017-10-17 Siemens Healthcare Gmbh Intelligent multi-scale medical image landmark detection
US10192129B2 (en) * 2015-11-18 2019-01-29 Adobe Systems Incorporated Utilizing interactive deep learning to select objects in digital visual media
US10871536B2 (en) 2015-11-29 2020-12-22 Arterys Inc. Automated cardiac volume segmentation
CN108369642A (zh) 2015-12-18 2018-08-03 加利福尼亚大学董事会 根据头部计算机断层摄影解释和量化急症特征
US10163028B2 (en) 2016-01-25 2018-12-25 Koninklijke Philips N.V. Image data pre-processing
DE102016204225B3 (de) * 2016-03-15 2017-07-20 Friedrich-Alexander-Universität Erlangen-Nürnberg Verfahren zur automatischen Erkennung von anatomischen Landmarken und Vorrichtung
CN105825509A (zh) * 2016-03-17 2016-08-03 电子科技大学 基于3d卷积神经网络的脑血管分割方法
US9886758B2 (en) 2016-03-31 2018-02-06 International Business Machines Corporation Annotation of skin image using learned feature representation
CN205665697U (zh) * 2016-04-05 2016-10-26 陈进民 基于细胞神经网络或卷积神经网络的医学影像识别诊断系统
CN106127725B (zh) 2016-05-16 2019-01-22 北京工业大学 一种基于多分辨率cnn的毫米波雷达云图分割方法
CN106096632A (zh) * 2016-06-02 2016-11-09 哈尔滨工业大学 基于深度学习和mri图像的心室功能指标预测方法
CN106096616A (zh) * 2016-06-08 2016-11-09 四川大学华西医院 一种基于深度学习的磁共振影像特征提取及分类方法
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
US10582907B2 (en) 2016-10-31 2020-03-10 Siemens Healthcare Gmbh Deep learning based bone removal in computed tomography angiography
US10600184B2 (en) 2017-01-27 2020-03-24 Arterys Inc. Automated segmentation utilizing fully convolutional networks
US10373313B2 (en) * 2017-03-02 2019-08-06 Siemens Healthcare Gmbh Spatially consistent multi-scale anatomical landmark detection in incomplete 3D-CT data
BR112019022447A2 (pt) * 2017-04-27 2020-06-09 Bober Miroslaw sistema e método para análise de imagem funduscópica automatizada
EP3629898A4 (en) 2017-05-30 2021-01-20 Arterys Inc. AUTOMATED LESION DETECTION, SEGMENTATION AND LONGITUDINAL IDENTIFICATION
CN107341265B (zh) 2017-07-20 2020-08-14 东北大学 一种融合深度特征的乳腺图像检索系统与方法
US11551353B2 (en) 2017-11-22 2023-01-10 Arterys Inc. Content based image retrieval for lesion analysis
US10902591B2 (en) * 2018-02-09 2021-01-26 Case Western Reserve University Predicting pathological complete response to neoadjuvant chemotherapy from baseline breast dynamic contrast enhanced magnetic resonance imaging (DCE-MRI)
KR101952887B1 (ko) * 2018-07-27 2019-06-11 김예현 해부학적 랜드마크의 예측 방법 및 이를 이용한 디바이스
EP3608870A1 (en) * 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
JP7125312B2 (ja) * 2018-09-07 2022-08-24 富士フイルムヘルスケア株式会社 磁気共鳴撮像装置、画像処理装置、及び、画像処理方法
US10646156B1 (en) * 2019-06-14 2020-05-12 Cycle Clarity, LLC Adaptive image processing in assisted reproductive imaging modalities

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090080745A1 (en) 2007-09-21 2009-03-26 Yefeng Zheng Method and system for measuring left ventricle volume
JP2011523147A (ja) 2008-06-12 2011-08-04 ルノディ,フランク セバスティアン 画像処理、特に医療画像を処理するための方法及び装置
JP2011527055A (ja) 2008-07-03 2011-10-20 エヌイーシー ラボラトリーズ アメリカ インク 有糸分裂像検出装置および計数システム、および有糸分裂像を検出して計数する方法
US20110123253A1 (en) 2009-11-20 2011-05-26 Boku-Undo Co., Ltd. Illustrating tool
JP2012512730A (ja) 2010-03-31 2012-06-07 ザクリトエ、アクツィオネルノエ、オブシェストボ、“インパルス” 医療用途のデジタルx線画像の対象領域における明るさレベルを計算する方法
US20130336553A1 (en) 2010-08-13 2013-12-19 Smith & Nephew, Inc. Detection of anatomical landmarks
US20150238148A1 (en) 2013-10-17 2015-08-27 Siemens Aktiengesellschaft Method and system for anatomical object detection using marginal space deep neural networks
US20150117760A1 (en) 2013-10-30 2015-04-30 Nec Laboratories America, Inc. Regionlets with Shift Invariant Neural Patterns for Object Detection
JP2015131023A (ja) 2014-01-14 2015-07-23 株式会社東芝 磁気共鳴イメージング装置
JP2015154918A (ja) 2014-02-19 2015-08-27 三星電子株式会社Samsung Electronics Co.,Ltd. 病変検出装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Olaf Ronneberger et al.,"U-Net: Convolutional Networks for Biomedical Image Segmentation",International Conference on Medical Image Computiong and Computer-Assisted Intervention MICCAI 2015,2015年11月18日,pp.234-241

Also Published As

Publication number Publication date
CN108603922A (zh) 2018-09-28
WO2017091833A1 (en) 2017-06-01
EP3380859A1 (en) 2018-10-03
JP2019504659A (ja) 2019-02-21
EP3380859A4 (en) 2019-07-31
US10871536B2 (en) 2020-12-22
US20180259608A1 (en) 2018-09-13

Similar Documents

Publication Publication Date Title
JP6993334B2 (ja) 自動化された心臓ボリュームセグメンテーション
CN110475505B (zh) 利用全卷积网络的自动分割
US9968257B1 (en) Volumetric quantification of cardiovascular structures from medical imaging
US11010630B2 (en) Systems and methods for detecting landmark pairs in images
EP1851722B8 (en) Image processing device and method
Xia et al. Super-resolution of cardiac MR cine imaging using conditional GANs and unsupervised transfer learning
WO2019211307A1 (en) Modality-agnostic method for medical image representation
CN110648358B (zh) 用于3d医学图像中的对象定位的形状参数的自适应非线性优化
CN112102373A (zh) 一种基于强约束仿射形变特征学习的颈动脉多模态图像配准方法
JP7346553B2 (ja) 深層学習を使用する3dデータセット内のオブジェクトの成長率の決定
Kim et al. Automatic segmentation of the left ventricle in echocardiographic images using convolutional neural networks
Conti et al. Left ventricular modelling: a quantitative functional assessment tool based on cardiac magnetic resonance imaging
Lei et al. Echocardiographic image multi‐structure segmentation using Cardiac‐SegNet
US7986836B2 (en) Method, a system and a computer program for segmenting a surface in a multidimensional dataset
Laumer et al. Weakly supervised inference of personalized heart meshes based on echocardiography videos
Sander et al. Reconstruction and completion of high-resolution 3D cardiac shapes using anisotropic CMRI segmentations and continuous implicit neural representations
Böttger et al. Application of a new segmentation tool based on interactive simplex meshes to cardiac images and pulmonary MRI data
CN113129297B (zh) 基于多期相肿瘤影像的直径自动测量方法及系统
Bersvendsen et al. Semiautomated biventricular segmentation in three-dimensional echocardiography by coupled deformable surfaces
Chitiboi et al. Contour tracking and probabilistic segmentation of tissue phase mapping MRI
US11295451B2 (en) Robust pulmonary lobe segmentation
Wan et al. Variational reconstruction of left cardiac structure from CMR images
Pereira A comparison of deep learning algorithms for medical image classification and image enhancement
Metaxas et al. Segmentation and blood flow simulations of patient-specific heart data
Tarroni Automated Segmentation and Non-Rigid Registration for the Quantitative Evaluation of Myocardial Perfusion from Magnetic Resonance Images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191025

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200923

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211209

R150 Certificate of patent or registration of utility model

Ref document number: 6993334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150