JP7433297B2 - 深層学習ベースのコレジストレーション - Google Patents

深層学習ベースのコレジストレーション Download PDF

Info

Publication number
JP7433297B2
JP7433297B2 JP2021510116A JP2021510116A JP7433297B2 JP 7433297 B2 JP7433297 B2 JP 7433297B2 JP 2021510116 A JP2021510116 A JP 2021510116A JP 2021510116 A JP2021510116 A JP 2021510116A JP 7433297 B2 JP7433297 B2 JP 7433297B2
Authority
JP
Japan
Prior art keywords
machine learning
learning system
image
target image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021510116A
Other languages
English (en)
Other versions
JPWO2020041503A5 (ja
JP2021535482A (ja
Inventor
デル ノーマン バーク
パトリック サル シーン
リーマン-シフリー ジェシー
シモノフスキー マーティン
アーヴィング ゴールデン ダニエル
カン ラウ ホク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arterys Inc
Original Assignee
Arterys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arterys Inc filed Critical Arterys Inc
Publication of JP2021535482A publication Critical patent/JP2021535482A/ja
Publication of JPWO2020041503A5 publication Critical patent/JPWO2020041503A5/ja
Application granted granted Critical
Publication of JP7433297B2 publication Critical patent/JP7433297B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Description

本発明は深層学習ベースのコレジストレーションに関する。
最近、深層学習は様々な医用画像1、2のセグメンテーションを自動化することにおいて有望な結果を示している。ただし、これらの深層学習アルゴリズムのトレーニングは、エキスパートアノテーターからのトレーニングデータの大規模なセットを必要とする。そのため、1つのアノテーション付きマスクまたはランドマークを画像セット全体に渡って転送するやり方としてコレジストレーション(空間アライメント)を使用することは、純粋な深層学習の設定において必要な手動ラベルの数を減らすための貴重なツールである。コレジストレーションを使用して、アノテーション付きのランドマークまたはマスクをある画像から別の画像に空間的に位置合わせし、画像を共通の参照フレームにワープして、手動または自動による比較を容易にすることもできる。
従来のコレジストレーション方法は目的関数を、同時登録される画像の新しいペアごとに繰り返し最適化し、これは、計算コストの高いプロセスであり、所定の画像ボリュームで完了するまでに数時間かかることができる。深層学習ベースのコレジストレーションは、目的関数を繰り返し最適化することなく、変形を計算することが可能である。処理装置としてグラフィックス処理装置(GPU)と組み合わせる場合、これは登録を計算するための計算コストを大幅に削減する結果となる。
従来のコレジストレーション方法は、弾性タイプのモデリング3、統計的パラメトリックマッピング4、b―スプラインを用いた自由形式変形5など、様々な反復方法を通して、すべての画像ペアリングに渡って変位ベクトル場を計算する。
深層畳み込みニューラルネットワーク(CNN)を使用し医用画像上でコレジストレーションのバリアントを実行するフレームワークが現れ始めている。これらの方法の大部分は、画像のペア間の差異を最小化する変形フィールドの作成に焦点を合わせている。Hu et al.は特に、術中の経直腸的超音波前立腺画像に磁気共鳴(MR)画像を登録するための僅かな教師あり方法6を提案した。これらの方法は、ある画像から別の画像へのグローバルアライメント、およびある画像から別の画像への高密度変形フィールド(DDF)用のアフィン変換の両方を学習する。しかしながら、Hu et al.に記載されている方法は、モデルをトレーニングするために解剖学的ランドマークポイントが必要であり、その収集には時間が掛かり高価である。Balakrishnan et al.は、損失関数が純粋に生の画像データに基づいている3DMRI脳データセットのコレジストレーション用の完全な教師なしCNN7、を提案した。Balakrishnan et al.のアプローチは2つの画像のDDFのみを学習し、および、空間変換レイヤーを通してDDFをフィードすることによりアフィン変換を説明している。
図1は、1つの非限定的な例示の実装形態による、畳み込みニューラルネットワーク(CNN)のシステム(ここではDeformation Netと呼ばれる)をトレーニングして、コレジストレーション用の画像をワープするDDFを作成する図である。 図2は、1つの非限定的な例示の実装形態による、トレーニングされたDeformation Netを使用して画像安定化を実行し得る手段の1つの実装形態を示す。 図3は、1つの非限定的な例示の実装形態による、トレーニングされたDeformation Netを使用して輪郭マスク転送を実行し得る手段の1つの実装形態を示す。 図4は、1つの非限定的な例示の実装形態による、Deformation Netを介し同時登録する輪郭マスクを選択し得る手段の2つの実装形態を示す。 図5は、1つの非限定的な例示の実装形態による、良セグメンテーション確率マップおよび品質スコアが導出されるスライスの例、並びに不良セグメンテーション確率マップおよび品質スコアが導出されるスライスの例を示す。 図6は、本開示の1つまたは複数の実装のための例示的なコンピューティング環境である。
[教師なし心臓深層学習ベースのコレジストレーション]
[システム概要]
本明細書で説明する実装は、CNNを使用した教師なしコレジストレーションの新規のフレームワークであり、本明細書ではDeformation Netと呼ばれる。Deformation Netは、画像コレジストレーションに対して、完全な教師なしアプローチを行う。有利には、Deformation Netはまた、明示的に画像を安定化する、または輪郭マスクを画像間で転送する。Deformation Netのアーキテクチャでは、グローバルアライメントが、DDFに加えてアフィン変形を介して学習され、教師なし損失関数が維持される。教師なし損失関数を使用することは、データ上に明示的な人間由来のアノテーションを付ける必要を無くし、これは、これらのアノテーションの取得が教師ありおよび半教師ありCNNの主要な課題の1つであるため、有利である。Deformation Netはまた、少なくとも一部の実装形態では、各変換ステップの最後に追加の空間変換レイヤーを適用するという点で独特であり、これは、ネットワークが以前の変換エラーを修正し得るように、事前に予測された変換を「微調整」する能力を提供する。
[トレーニング]
Deformation Netシステムのトレーニングフェーズの1つの実装を図1に示す。少なくとも一部の実装形態では、Deformation Netのトレーニングは、以下の2つの主要なプロセスを有する。
1.グローバルネットワークをトレーニングし、入力されたターゲット画像を入力されたソース画像座標システム(102、103、および105)にワープするためのアフィン行列を介してグローバル画像のアライメントを学習する。
2.ローカルネットワークをトレーニングし、入力されたターゲット画像のローカライズされた特徴を入力されたソース画像(105および106)にワープするためのDDFを学習する。
少なくとも一部の実装形態では、医用画像データベース(101)からのソース画像およびターゲット画像の各ペアは、同じ患者およびおそらく同じ研究からの2つの心臓MR画像を表す。これらの心臓MRシリーズは、限定されないが、遅延増強短軸(SAX)画像、灌流SAX画像、SSFP SAX画像、T1/T2/T2*マッピングSAX画像などを含み得る。
[ターゲット画像の座標をソース画像の座標(102、103、および104)にマッピングするためのアフィン変換行列の作成]
N個(Nは0以上の整数)以上のアフィン変換パラメータを備えるアフィン変換行列は、入力がソース画像(103)およびターゲット画像(102)を含む画像のペアであるグローバルネットワーク(104)を介して学習される。学習されたアフィン変換パラメータは、ターゲット画像に適用された場合、ターゲット画像をソース画像に位置合わせするそれらのパラメータとして定義される。少なくとも一部の実装形態では、ターゲット画像は、アフィン行列が学習される前に、ソース画像のサイズに一致するようにサイズ変更される。
少なくとも一部の実装形態では、グローバルネットワーク(104)は回帰ネットワークである。グローバルネットワーク(104)のバージョンには、32個の初期畳み込みフィルターが含まれる。少なくとも一部の実装は畳み込み層のストライドを使用してダウンサンプリングし、各ダウンサンプリング演算の前に、カーネルサイズ3を備えた2つの畳み込み層、運動量率のバッチ正規化層、ドロップアウト層、およびReLU非線形性層がある。少なくとも一部の実装形態では、グローバルネットワーク(104)の最後の層は、所望の数のアフィンパラメータにマッピングする高密度層である。
少なくとも一部の実装形態では、グローバルネットワーク(104)のアフィンパラメータ出力は、回転、スケーリング、およびズームのための異なるスケーリング係数によって制限される別のアフィン空間変換レイヤーへの入力として使用される。スケーリング要素は、ターゲット画像に対して行うことができるアフィン変形の量を制御する。少なくとも一部の実装形態では、アフィン空間変換レイヤーによって出力されるアフィン空間変換行列は、曲げエネルギー損失関数の形で実装される正則化演算を含む。例えば、アフィン空間変換行列の正則化のための勾配エネルギー損失関数も使用し得る。この正則化はさらに、学習されたアフィン空間変換行列を、非現実的に大きな変換を生成することから防ぐ。
[ソース画像と一致するように変換されたターゲット画像をワープするためのDDFの作成(106)]
少なくとも一部の実装形態では、DDFはローカルネットワーク(106)を介して学習され、入力はソース画像(103)およびターゲット画像(102)を含むペアである。いくつかの実装形態では、ターゲット画像(102)は、最初に、グローバルネットワーク(104)で学習されたアフィン変換行列を介してソース画像座標にワープされ、ローカルネットワーク(106)に入力されるワープターゲット画像(105)が提供される。
少なくとも一部の実装形態では、ローカルネットワーク(106)は、ダウンサンプリングパスおよびアップサンプリングパスを含むニューラルネットワークアーキテクチャである。このようなローカルネットワークのバージョンには、32個の初期畳み込みフィルターが含まれており、対応するダウンサンプリングレイヤーおよびアップサンプリングレイヤー間の接続をスキップする。少なくとも一部の実装は、畳み込み層のストライドを使用してダウンサンプリングし、各ダウンサンプリング演算またはアップサンプリング演算の前に、カーネルサイズ3を備えた2つの畳み込み層、運動量率のバッチ正規化層、ドロップアウト層、およびReLU非線形性層がある。このアップサンプリングにより、パディングを使用していた場合、入力されたソース画像およびターゲット画像とDDFを同じサイズにすることが可能となる。
少なくとも一部の実装形態では、ローカルネットワーク(106)の学習されたDDF出力は、自由形式類似性空間変換レイヤーを通過する。例として、この自由形式類似性空間変換レイヤーには、アフィン変換または高密度自由形式変形フィールドワーピング5、またはその両方を含めることができる。アフィン変換を使用する場合は、これらをスケーリングしターゲット画像に加えることができる変形の量を制御し得る。少なくとも一部の実装形態では、DDFにはまた、曲げエネルギー損失関数5の形式で実装される正則化演算が含まれている。また勾配エネルギー損失関数を使用して、DDFを正則化し得る。この正則化は、学習されたDDFを非現実的に大きな変形を生成することから防ぐ。
少なくとも一部の実装形態では、CNNモデルは、アダムオプティマイザを用いたバックプロパゲーション、およびソース画像とDDFによってワープされたターゲット画像との間の相互情報損失関数(すなわち、ワープターゲット画像105)を介して更新され得る。アダムオプティマイザは、バックプロパゲーションされた勾配の第一のモーメントおよび第二のモーメントの両方を使用したトレーニングを通じて学習率を調整する。使用され得るオプティマイザの他の非限定的な例には、確率的勾配降下法、ミニバッチ勾配降下法、アダグラード、および二乗平均平方根プロパゲーションが含まれる。損失関数の他の非限定的な例には、二乗平均平方根誤差、L2損失、中心の重み付けによるL2損失、およびソース画像とターゲット画像に適用されたDDFの間の相互相関損失7が含まれ得る。これらの損失関数は、生の入力データ、およびDeformation Netがその生データから何を学習するかにのみ依存する。有利には、明示的なハンドアノテーションに対する任意の依存の欠如により、このシステムを完全な教師なしにすることが可能である。
[トレーニングされたネットワークの重みの格納(108)]
トレーニングされたグローバルネットワーク(104)およびローカルネットワーク(106)の重みは、ハードディスクおよびソリッドステートドライブを含むストレージデバイスに格納して、後で画像安定化またはセグメンテーションマスク転送に使用できる。
[教師なし心臓深層学習ベースの画像安定化推論]
図2は、画像安定化のためにトレーニングされたDeformation Net上で推論を実行する実装を示している。この実装では、Deformation Netへの入力は、ソース画像(202)、およびターゲット画像をソース画像上にワープすることによって安定化されるターゲット画像(203)を含む。これらの画像ペアリングは、医用画像(201)のデータベースから選択され得る。上で論じたトレーニングされたDeformation Net(204)を使用して、ソース画像(202)に関するDDF(205)が推論される。このDDF(205)はターゲット画像(203)に適用され、ソース画像(202)に対して安定化されたワープターゲット画像(206)を作成する。新たに安定化されたターゲット画像(206)は、ディスプレイ(207)を介してユーザに表示され、ハードディスクおよびソリッドステートドライブを含むワープ画像データベース(209)に格納され得る。
画像安定化推論のために使用され得る画像ペアリングには、これらに限定されないが、心臓MR画像ボリュームの同じスライスからであるが異なる時点で取り込まれた画像、心臓MR画像ボリュームの同じ時点からであるが異なるスライスの画像、同じMR画像ボリュームの任意の画像からの画像、異なるMR画像ボリュームからの画像、乳房、肝臓、または前立腺のDCE-MRI(動的コントラスト強調MRI)などの時系列を含む他の医用画像からの画像、または透視画像からの画像、が含まれる。
[教師なし心臓深層学習ベースの輪郭マスクレジストレーション推論]
[推論ステップの概要]
図3は、セグメンテーションマスクをある画像から別の画像に転送するためにトレーニングされたDeformation Netを用いて推論を実行する1つの実装を示す。少なくとも一部の実装形態では、Deformation Netへの入力は、医用画像(301)のデータベースからの2D心臓SAX MR画像(ソース画像302とターゲット画像303)のペアであり、例えば、画像の1つは、例えば、左心室心内膜(LVエンド)、左心室心外膜(LVエピ)、および/または右心室心内膜(RVエンド)を含む心室輪郭の対応するセグメンテーションマスク(304)を有する。少なくとも一部の実装形態では、セグメンテーションマスク(304)は、ターゲット画像(303)に対応し得る。トレーニングされたDeformation Net(305)を使用して、ソース画像に関するDDF(306)が推論される。このDDF(306)は、ターゲット画像(303)に対応するセグメンテーションマスク(304)に適用され、ソース画像上にワープされたワープセグメンテーションマスク(307)を作成する。新たなワープセグメンテーションマスク(307)は、ディスプレイ(308)を介してユーザに表示され、これらに限定されないがハードディスクおよびソリッドステートドライブを含むワープセグメンテーションマスクデータベース(310)に格納できる。
[セグメンテーションマスクの選択]
図3に示されるセグメンテーションマスク(304)を達成するための実装は、これらに限定されないが、ユーザにセグメンテーションマスクを手動で作成させること、および事前にトレーニングされたCNNモデルを含むヒューリスティックを使用して、セグメンテーションマスクを自動的に作成すること、を含む。
図4は、ヒューリスティックおよび事前にトレーニングされたCNNを使用して、他の画像に転送するセグメンテーションマスクを選択する1つの実装を示す。この実装では、セグメンテーションが必要な、2D心臓SAX MR画像(401)のグループが選択される。これらの画像(401)は、前述のように、事前にトレーニングされたCNN(402)への入力として使用される。少なくとも一部の実装形態では、CNN(402)は、2D SSFP MR画像内のLVエピ、LVエンド、およびRVエンドのためにマスクをセグメント化するように事前にトレーニングされている。これらの実装では、CNN(402)の出力は、各2D画像のピクセルごとの基準上のセグメンテーション確率マップ(403)である。
CNN(402)は、すべての画像のセグメンテーションを正確に予測することが不可能であり得、そのため、(303)(図3)のためのターゲット画像として高品質のセグメンテーションマスクを備えた画像を選択することが重要であり得る。事前にトレーニングされたCNN(402)から出力されるセグメンテーション確率マップ(403)を使用して、所定の画像の前景マップスコア(404)および背景マップスコア(405)を計算する。マップスコア(404)および(405)はピクセルごとに計算される。前景マップスコア(404)は、画像ピクセルが心室マスクの1つに属する確率を表し、背景マップスコア(405)は、画像ピクセルが心室マスクの1つに属さない確率を表す。前景マップスコア(404)は、0.5を超えるすべての確率マップ値の平均をとることによって計算される。背景マップスコア(405)は0.5未満のすべての確率マップ値の1つからの距離をとることによって計算される。次に、その所定のスライス予測のためのマップ品質スコア(406)は、背景マップスコア(405)に前景マップスコア(404)を乗算することによって計算される。
上記の可能なヒューリスティック実装の一般的なアクションは、以下の例示の擬似コードで説明される。
1. for image in set of 2D images:
a. probability_map = Previously_Trained_CNN_Segmentor(image)
b. foreground_map_values = values of probability_map > 0.5
c. foreground_score = mean(foreground_map_values)
d. background_map_values = 1 - (values of probability_map <= 0.5)
e. background_score = mean(background_map_values)
f. quallity_score = foreground_score * background_score
2. select images with best quality
少なくとも一部の実装形態では、2D画像のグループ全体で最高の品質スコアに対応するセグメンテーション確率マスクを備える画像が単一のターゲット画像(407)として扱われ、他の画像の一部またはすべてが、ターゲット画像のセグメンテーションマスク(304)がワープされるソース画像として扱われる。
図5は、上記のヒューリスティックが実際にどのように機能し得るかの例を示す。画像(502)および(508)は、CNN(402)(図4)に供給される2D SAX MR画像の例である。画像(504)および画像(510)は、それぞれ、輪郭図として表される、画像(502)および画像(508)のLVエピに対するCNN(402)の確率マップ出力である。画像(504)は、良確率マップを表す。それはLVエピの周囲に高い確率(0.8の黒い線で表される)の明確な境界を有し、確率はLVエピ領域の外側で急速に低下する。画像(510)は不良確率マップを表す。LVエピの周りの輪郭は全体的にかなり低く、LVエピのまさに中心でのみ高い確率がある。さらに、LVエピ領域のはるか外側で確率に変化がある。画像(504)および画像(510)の前景および背景マップは、それぞれ、画像(506)および画像(512)の輪郭として表されている。黒い輪郭は上記の擬似コードのact1.bによって計算された際の前景マップ値を表し、白い輪郭は擬似コードのact1.dによって計算された際の背景マップ値を表す。画像(506)は前景マップと背景マップの高い確率を有し、高品質スコアを与えるであろう。画像(510)は背景マップでは高い確率であるが前景マップでは低い確率を有し、これは低品質スコアを与え、画像間を転送されるセグメンテーションマスクとして使用されない可能性があるであろう。
[例示のコンピューティング環境]
図6は、本明細書で説明される様々な機能を実装するのに適したプロセッサベースのデバイス604を示している。必須ではないが、実装のいくつかの部分は、1つまたは複数のプロセッサによって実行されるプログラムアプリケーションモジュール、オブジェクト、またはマクロなど、プロセッサ実行可能命令またはロジックの一般的なコンテキストで説明される。関連技術の当業者は、説明された実装ならびに他の実装が、スマートフォンおよびタブレットコンピュータなどのハンドヘルドデバイス、ウェアラブルデバイス、マルチプロセッサシステム、マイクロプロセッサベースまたはプログラム可能な消費者向け電子機器、パーソナルコンピュータ(「PC」)、ネットワークPC、ミニコンピュータ、メインフレームコンピュータなど、を含む、様々なプロセッサベースのシステム構成で、実施できることを理解するであろう。
プロセッサベースのデバイス604は、1つまたは複数のプロセッサ606、システムメモリ608、およびシステムメモリ608を含む様々なシステムコンポーネントをプロセッサ606に結合するシステムバス610を含み得る。プロセッサベースのデバイス604は、本明細書では単数形で言及されることがあるが、特定の実装では複数のシステムまたは他のネットワーク化されたコンピューティングデバイスが関与するため、これは実装を単一のシステムに限定することを意図しない。市販のシステムの非限定的な例には、これらに限定されないが、様々な製造業者のARMプロセッサ、米国Intel CorporationのCoreマイクロプロセッサ、IBMのPowerPCマイクロプロセッサ、Sun Microsystems IncのSparcマイクロプロセッサ、Hewlett-Packard CompanyのPA-RISCシリーズマイクロプロセッサ、Motorola Corporationの68xxxシリーズマイクロプロセッサ、が含まれる。
プロセッサ606は、1つまたは複数の中央処理装置(CPU)、マイクロプロセッサ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)などの任意の論理(ロジック)処理装置であり得る。特に明記しない限り、図6に示す様々なブロックの構造および演算は従来型の設計である。結果として、そのようなブロックは、関連技術の当業者によって理解されるので、本明細書でさらに詳細に説明する必要はない。
システムバス610は、メモリコントローラを備えたメモリバス、周辺バス、およびローカルバスを含む、任意の既知のバス構造またはアーキテクチャを採用できる。システムメモリ608は、読み取り専用メモリ(「ROM」)612およびランダムアクセスメモリ(「RAM」)614を含む。ROM612の一部を形成できる基本的な入力/出力システム(「BIOS」)616は、起動中など、プロセッサベースのデバイス604内の構成部品の間で情報を転送するのを助ける基本的なルーチンを含む。一部の実装では、データ、命令、および電力用に分離したバスを採用し得る。
プロセッサベースのデバイス604はまた、1つまたは複数のソリッドステートメモリ、例えば、フラッシュメモリまたはソリッドステートドライブ(SSD)618を含み得、これは、コンピュータ可読命令、データ構造、プログラムモジュール、およびプロセッサベースのデバイス604の他のデータの不揮発性ストレージを提供する。図示されていないが、プロセッサベースのデバイス604は、他の非一時的コンピュータまたはプロセッサ可読媒体、例えば、ハードディスクドライブ、光ディスクドライブ、またはメモリカードメディアドライブを採用できる。
プログラムモジュールは、オペレーティングシステム630、1つまたは複数のアプリケーションプログラム632、他のプログラムまたはモジュール634、ドライバ636、およびプログラムデータ638などのシステムメモリ608に格納できる。
アプリケーションプログラム632は、例えば、パン/スクロールロジック632aを含み得る。そのようなパン/スクロールロジックは、これらに限定されないが、ポインタ(例えば、指、スタイラス、カーソル)が、中央部分および少なくとも1つのマージンを有する領域を含むユーザインターフェース要素にいつおよび/またはどこに入るかを決定するロジックを含み得る。そのようなパン/スクロールロジックは、これらに限定されないが、ユーザインターフェース要素の少なくとも1つの要素が移動しているように見えるべき方向および速度(rate)を決定するロジックを含み、表示の更新をもたらし、少なくとも1つの要素に決定された速度で決定された方向に移動しているように見えるようにさせ得る。パン/スクロールロジック632aは、例えば、1つまたは複数の実行可能命令として格納され得る。パン/スクロールロジック632aは、ポインタの動きを特徴付けるデータ、例えば、タッチセンシティブディスプレイからの、またはコンピュータのマウスまたはトラックボール、または他のユーザインターフェイスデバイスからのデータ、を使用してユーザインターフェースオブジェクトを生成するための、プロセッサ、および/またはマシン実行可能ロジック、または命令を含み得る。
システムメモリ608はまた、通信プログラム640、例えば、プロセッサベースのデバイス604に、ユーザコンピューティングシステム、インターネット上のウェブサイト、企業イントラネット、または以下に説明するその他のネットワークなどの他のシステムにアクセスしてデータを交換することを可能にさせるためのサーバ、および/または、ウェブクライアント、またはブラウザを含み得る。図示の実装における通信プログラム640は、ハイパーテキストマークアップ言語(HTML)、拡張可能マークアップ言語(XML)またはワイヤレスマークアップ言語(WML)などのマークアップ言語ベースであり、ドキュメントの構造を表すためのドキュメントのデータに追加された構文的に区切られた文字を使用するマークアップ言語で作動する。カリフォルニアのMozillaCorporationおよびワシントンのMicrosoftからのものなど、多くのサーバおよびWebクライアントまたはブラウザが市販されている。
システムメモリ608に格納されているものとして図6に示されているが、オペレーティングシステム630、アプリケーションプログラム632、他のプログラム/モジュール634、ドライバ636、プログラムデータ638、およびサーバおよび/またはブラウザ640は、他の任意の多種多様な非一時的なプロセッサ可読メディア(例えば、ハードディスクドライブ、光ディスクドライブ、SSD、および/またはフラッシュメモリ)に格納できる。
ユーザは、ポインタを介して、例えば、指644a、スタイラス644bを介して、またはカーソルを制御するコンピュータマウスまたはトラックボール644cを介して、タッチスクリーン648などの入力デバイスを通して、コマンドおよび情報を入力できる。他の入力デバイスには、マイク、ジョイスティック、ゲームパッド、タブレット、スキャナー、生体測定スキャンデバイスなどが含まれる。これらおよび他の入力デバイス(すなわち、「I/Oデバイス」)は、タッチスクリーンコントローラなどのインターフェース646および/またはユーザの入力をシステムバス610へ結合するユニバーサルシリアルバス(「USB」)インターフェースを介してプロセッサ606に接続されるが、パラレルポート、ゲームポート、または、ワイヤレスインターフェースもしくはシリアルポートなどの他のインターフェースも使用し得る。タッチスクリーン648は、タッチスクリーン648を介して表示するための画像データまたは画像情報を受信するビデオアダプタなどのビデオインターフェース650を介してシステムバス610に結合できる。図示されていないが、プロセッサベースのデバイス604は、スピーカー、バイブレータ、触覚アクチュエータなどの他の出力デバイスを含むことができる。
プロセッサベースのデバイス604は、1つまたは複数の論理(ロジック)接続を使用するネットワーク環境で作動し、1つまたは複数の通信チャネル、例えば、1つまたは複数のネットワーク614a、614bを介して1つまたは複数のリモートコンピュータ、サーバ、および/またはデバイスと通信し得る。これらの論理(ロジック)接続は、インターネットなどの1つまたは複数のLANおよび/またはWAN、および/またはセルラー通信ネットワークを介するなど、コンピュータに通信を可能とさせる任意の既知の方法を容易にし得る。このようなネットワーク環境は、有線および無線の企業全体のコンピュータネットワーク、イントラネット、エクストラネット、インターネット、および通信ネットワーク、セルラーネットワーク、ページングネットワーク、その他のモバイルネットワークを含む他の種類の通信ネットワークにおいて周知である。
ネットワーク環境で使用される場合、プロセッサベースのデバイス604は、ネットワーク、例えば、インターネット614aまたはセルラーネットワークを介した通信を確立するための、1つまたは複数の有線または無線通信インターフェース614a、614b(例えば、セルラー無線、WI-FI無線、Bluetooth無線)を含み得る。
ネットワーク化された環境では、プログラムモジュール、アプリケーションプログラム、若しくはデータ、またはそれらの一部を、サーバーコンピューティングシステム(不図示)に格納できる。関連技術の当業者は、図6に示されるネットワーク接続がコンピュータ間の通信を確立するやり方のほんの一例であり、無線を含む他の接続を使用し得ることを認識するであろう。
便宜上、プロセッサ606、システムメモリ608、ネットワークおよび通信インターフェース614a、614bは、システムバス610を介して互いに通信可能に結合され、それによって上記のコンポーネント間の接続を提供するものとして示されている。プロセッサベースのデバイス604の代替の実装形態では、上記のコンポーネントは、図6に示されているものとは異なるやり方で通信可能に結合され得る。例えば、上記のコンポーネントの1つまたは複数は、他のコンポーネントに直接結合され得る、または中間コンポーネント(不図示)を介して互いに結合され得る。いくつかの実装形態では、システムバス610は省略され、コンポーネントは適切な接続を使用し互いに直接結合される。
上記の様々な実装を組み合わせて、さらに実装を提供できる。本明細書の特定の教示および定義と矛盾しない限り、限定されないが、2011年7月7日に出願された米国仮特許出願第61/571,908号、2016年12月6日に発行された米国特許第9,513,357号、2016年11月29日に出願された米国特許出願第15/363683号、2014年1月17日に出願された米国仮特許出願第61/928702号、2016年7月15日に出願された米国特許出願第15/112130号、2015年11月20日に出願された米国仮特許出願第62/260565号、2016年10月31日に出願された米国仮特許出願第62/415203号、2016年11月1日に出願された米国仮特許出願第62/415666号、2017年1月27日に出願された米国仮特許出願第62/451482号、2017年5月4日に出願された米国仮特許出願第62/501613号、2017年5月30日に出願された米国仮特許出願第62/512610号、2018年1月25日に出願された米国特許出願第15/879732号、2018年1月25日に出願された米国特許出願第15/879742号、2017年11月22日に出願された米国仮特許出願第62/589825号、2017年11月22日に出願された米国仮特許出願第62/589805号、2017年11月22日に出願された米国仮特許出願第62/589772号、2017年11月22日に出願された米国仮特許出願第62/589872号、2017年11月22日に出願された米国仮特許出願第62/589876号、2017年11月22日に出願された米国仮特許出願第62/589766号、2017年11月22日に出願された米国仮特許出願第62/589833号、2017年11月22日に出願された米国仮特許出願第62/589838号、2018年1月25日に出願されたPCT出願PCT/US2018/015222号、2018年5月3日に出願されたPCT出願PCT/US2018/030963号、2018年5月25日に出願された米国特許出願第15/779,445号、2018年5月25日に出願された米国特許出願第15/779,447号、2018年5月25日に出願された米国特許出願第15/779,448号、2018年5月30日に出願されたPCT出願第PCT/US2018/035192号、2018年6月11日に出願された米国仮特許出願第62/683461号、を含む、全ての米国特許、米国特許出願公開、米国特許出願、外国特許、外国特許出願並びに本明細書で言及されるおよび/または出願データシートに記載されている非特許刊行物が、参照によりそのすべてが本明細書に組み込まれる。実装の様態を必要に応じて変更し、様々な特許、出願、および刊行物のシステム、回路、および概念を採用して、さらなる実装をさらに提供できる。
本出願は、2018年8月24日に出願された米国仮出願第62/722663号の優先権の利益を主張し、この出願は参照によりその全体が本明細書に組み込まれる。
これらおよびその他の変更を、上記の詳細な説明を参照して、実施形態に行うことができる。概して、以下の請求項において、使用する用語は、明細書および請求項で開示する特定の実施形態に請求項を限定するように解釈すべきではなく、請求項が権利を有する全ての範囲の相当物と共に、全ての可能な実施形態を含めるように解釈すべきである。したがって、請求項は本開示による限定を受けない。
[参照]
1. Norman, B., Pedoia, V. & Majumdar, S. Use of 2D U―Net Convolutional Neural Networks for Automated Cartilage and Meniscus Segmentation of Knee MR Imaging Data to Determine Relaxometry and Morphometry. Radiology 288, 177―185 (2018).
2. Lieman―Sifry, J., Le, M., Lau, F., Sall, S. & Golden, D. FastVentricle: Cardiac Segmentation with ENet. in Functional Imaging and Modelling of the Heart 127―138 (Springer International Publishing, 2017).
3. Shen, D. & Davatzikos, C. HAMMER: hierarchical attribute matching mechanism for elastic registration. IEEE Trans. Med. Imaging 21, 1421―1439 (2002).
4. Ashburner, J. & Friston, K. J. Voxel―Based Morphometry-The Methods. Neuroimage 11, 805―821 (2000).
5. Rueckert, D. et al. Nonrigid registration using free―form deformations: application to breast MR images. IEEE Trans. Med. Imaging 18, 712―721 (1999).
6. Hu, Y. et al. Label―driven weakly―supervised learning for multimodal deformarle image registration. in 2018 IEEE 15th International Symposium on Biomedical Imaging (ISBI 2018) 1070―1074 (2018).
7. Balakrishnan, G., Zhao, A., Sabuncu, M. R., Guttag, J. & Dalca, A. V. An Unsupervised Learning Model for Deformable Medical Image Registration. in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition 9252―9260 (2018).
8. Lin, C.―H. & Lucey, S. Inverse Compositional Spatial Transformer Networks. arXiv [cs.CV] (2016).

Claims (37)

  1. プロセッサ実行可能命令またはデータの少なくとも1つを格納する、少なくとも1つの非一時的プロセッサ可読記憶媒体と、
    前記少なくとも1つの非一時的プロセッサ可読記憶媒体に通信可能に結合された少なくとも1つのプロセッサと、
    を備えた機械学習システムであって、
    前記少なくとも1つのプロセッサが、作動中、
    ラベルなし画像セットの複数のバッチを含む学習データを受信し、各画像セットが少なくとも1人の患者の医用画像スキャンをそれぞれ表すソース画像およびターゲット画像を含み、
    前記学習データに基づいて、1つまたは複数の畳み込みニューラルネットワーク(CNN)モデルをトレーニングして、前記ターゲット画像の前記ソース画像へのコレジストレーションの1つまたは複数の変換関数を学習し、前記1つまたは複数のCNNモデルは、アフィン変換行列を学習するグローバルネットワークコンポーネントと、高密度変形フィールドを学習するローカルネットワークコンポーネントとを含み、前記グローバルネットワークコンポーネントは、前記1つまたは複数のCNNモデルにおいて前記ローカルネットワークコンポーネントに先行し、
    前記1つまたは複数のトレーニングされたCNNモデルを、前記機械学習システムの前記少なくとも1つの非一時的プロセッサ可読記憶媒体に格納する、
    機械学習システム。
  2. 前記少なくとも1つのプロセッサが教師なしトレーニングアルゴリズムを使用して前記1つまたは複数のCNNモデルをトレーニングする、請求項1に記載の機械学習システム。
  3. 前記教師なしトレーニングアルゴリズムが前記ソース画像および前記ターゲット画像のペアから計算され、前記画像上の任意の明示的な人間作成のアノテーションからは計算されない損失関数を含む、請求項2に記載の機械学習システム。
  4. 前記損失関数が前記ソース画像および前記ターゲット画像間のピクセルごとの二乗平均平方根誤差を含む、請求項3に記載の機械学習システム。
  5. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間の相互情報損失を含む、請求項3に記載の機械学習システム。
  6. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間のL2損失を含む、請求項3に記載の機械学習システム。
  7. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間の中心加重L2損失関数を含む、請求項3に記載の機械学習システム。
  8. 微分可能な目的関数が前記ソース画像および前記ターゲット画像間の正規化された相互相関損失関数を含む、請求項3に記載の機械学習システム。
  9. 前記ラベルなし画像セットの複数のバッチが2Dまたは3D画像の一方または両方を含む、請求項1に記載の機械学習システム。
  10. 前記変換関数がアフィン変換または高密度の非線形対応マップの一方または両方を含む、請求項1に記載の機械学習システム。
  11. 前記変換関数が高密度変形フィールド(DDF)を含む前記高密度の非線形対応マップを含む、請求項10に記載の機械学習システム。
  12. 前記1つまたは複数のCNNモデルがグローバルネットワークモデルを含み、前記グローバルネットワークモデルが前記学習データを受信しアフィン変換行列を出力する、請求項1に記載の機械学習システム。
  13. 前記アフィン変換行列が前記ソース画像に関して前記ターゲット画像上で計算される、請求項12に記載の機械学習システム。
  14. 前記ソース画像および前記ターゲット画像がすべての可能な画像ペアリングの組み合わせを含む、請求項12に記載の機械学習システム。
  15. 前記ソース画像および前記ターゲット画像が単一の心臓MRスキャンにおけるすべての画像を含む、請求項14に記載の機械学習システム。
  16. 前記ソース画像および前記ターゲット画像が1つまたは複数の異種のMRスキャンボリュームからのすべての画像を含む、請求項14に記載の機械学習システム。
  17. 前記グローバルネットワークモデルが、少なくとも1つの畳み込み層、最大プーリング層、バッチ正規化層、およびドロップアウト層を含む少なくとも1つの層のグループを含む収縮経路を含む、請求項12に記載の機械学習システム。
  18. 前記グローバルネットワークモデルが前記収縮経路内の前記層のグループの前記少なくとも1つに続く整流器または漏出性整流器を含む、請求項17に記載の機械学習システム。
  19. 前記グローバルネットワークモデルによって出力された前記アフィン変換行列がアフィン空間変換レイヤーを含む、請求項12に記載の機械学習システム。
  20. 前記アフィン変換行列のアフィン変換がスケーリング係数によって制限される、請求項12に記載の機械学習システム。
  21. 前記アフィン変換行列が正則化演算を含む、請求項12に記載の機械学習システム。
  22. 前記正則化演算が曲げエネルギー損失を含む、請求項21に記載の機械学習システム。
  23. 前記正則化演算が勾配エネルギー損失を含む、請求項21に記載の機械学習システム。
  24. 前記1つまたは複数のCNNモデルが前記学習データを受信し、ローカルネットワークの高密度変形フィールドを出力するローカルネットワークモデルを含む、請求項1に記載の機械学習システム。
  25. 前記少なくとも1つのプロセッサが前記ターゲット画像をワープしワープターゲット画像を提供して、前記ワープターゲット画像が元のターゲット画像にアフィン変換フィールドを適用することによって取得される、請求項24に記載の機械学習システム。
  26. 前記ローカルネットワークモデルが収縮経路および拡張経路を含み、前記収縮経路が1つまたは複数の畳み込み層および1つまたは複数のプーリング層を含み、各プーリング層が少なくとも1つの畳み込み層に先行し、前記拡張経路がいくつかの畳み込み層およびいくつかのアップサンプリング層を含み,各アップサンプリング層が少なくとも1つの畳み込み層に先行し、各アップサンプリング層が、少なくとも1つのアップサンプリング演算および学習されたカーネルを備えた補間演算を実行する転置畳み込み演算、または前記補間演算の後に続くアップサンプリング演算を含む、請求項24に記載の機械学習システム。
  27. 前記ローカルネットワークの高密度変形フィールドの出力が、自由形式類似性空間変換器を含む、請求項24に記載の機械学習システム。
  28. 前記自由形式類似性空間変換器がアフィン変換を含む、請求項27に記載の機械学習システム。
  29. 前記自由形式類似性空間変換器が高密度自由形式変形フィールドワーピングを含む、請求項27に記載の機械学習システム。
  30. 前記ローカルネットワークの高密度変形フィールドの出力が正則化演算を含む、請求項24に記載の機械学習システム。
  31. 前記正則化演算が曲げエネルギー損失を含む、請求項30に記載の機械学習システム。
  32. 前記正則化演算が勾配エネルギー損失を含む、請求項30に記載の機械学習システム。
  33. 前記1つまたは複数のCNNモデルが、グローバルネットワーク、ローカルネットワーク、および出力された高密度変形フィールドを含む、請求項1に記載の機械学習システム。
  34. 前記少なくとも1つのプロセッサが教師なし微分可能損失関数を使用するアダムオプティマイザを使用して、前記1つまたは複数のCNNモデルを最適化する、請求項1に記載の機械学習システム。
  35. 前記少なくとも1つのプロセッサが前記ソース画像およびワープターゲット画像との間の前記教師なし損失関数を計算する、請求項34に記載の機械学習システム。
  36. 前記ワープターゲット画像が高密度変形フィールドを元のターゲット画像に適用することによって獲得される、請求項35に記載の機械学習システム。
  37. 前記画像セットが心臓短軸CINE MRシリーズを含む、請求項1に記載の機械学習システム。
JP2021510116A 2018-08-24 2019-08-21 深層学習ベースのコレジストレーション Active JP7433297B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862722663P 2018-08-24 2018-08-24
US62/722,663 2018-08-24
PCT/US2019/047552 WO2020041503A1 (en) 2018-08-24 2019-08-21 Deep learning-based coregistration

Publications (3)

Publication Number Publication Date
JP2021535482A JP2021535482A (ja) 2021-12-16
JPWO2020041503A5 JPWO2020041503A5 (ja) 2022-05-30
JP7433297B2 true JP7433297B2 (ja) 2024-02-19

Family

ID=69591123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021510116A Active JP7433297B2 (ja) 2018-08-24 2019-08-21 深層学習ベースのコレジストレーション

Country Status (5)

Country Link
US (1) US20210216878A1 (ja)
EP (1) EP3821377A4 (ja)
JP (1) JP7433297B2 (ja)
CN (1) CN112602099A (ja)
WO (1) WO2020041503A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11693919B2 (en) * 2020-06-22 2023-07-04 Shanghai United Imaging Intelligence Co., Ltd. Anatomy-aware motion estimation
US11521323B2 (en) * 2020-10-21 2022-12-06 Shanghai United Imaging Intelligence Co., Ltd. Systems and methods for generating bullseye plots
US11822620B2 (en) * 2021-02-18 2023-11-21 Microsoft Technology Licensing, Llc Personalized local image features using bilevel optimization
CN113112534B (zh) * 2021-04-20 2022-10-18 安徽大学 一种基于迭代式自监督的三维生物医学图像配准方法
CN113240699B (zh) * 2021-05-20 2022-02-08 推想医疗科技股份有限公司 图像处理方法及装置,模型的训练方法及装置,电子设备
CN113723456B (zh) * 2021-07-28 2023-10-17 南京邮电大学 一种基于无监督机器学习的天文图像自动化分类方法及系统
CN113763441B (zh) * 2021-08-25 2024-01-26 中国科学院苏州生物医学工程技术研究所 无监督学习的医学图像配准方法及系统
CN114035656B (zh) * 2021-11-09 2023-11-14 吕梁学院 基于深度学习的医学图像处理装置及方法
US20230274386A1 (en) * 2022-02-28 2023-08-31 Ford Global Technologies, Llc Systems and methods for digital display stabilization
CN114693755B (zh) * 2022-05-31 2022-08-30 湖南大学 多模图像最大矩与空间一致性的非刚性配准方法及系统
WO2024023911A1 (ja) * 2022-07-26 2024-02-01 日本電信電話株式会社 学習装置、学習方法及びプログラム
CN115291730B (zh) * 2022-08-11 2023-08-15 北京理工大学 一种可穿戴生物电设备及生物电动作识别与自校准方法
CN117173401B (zh) * 2022-12-06 2024-05-03 南华大学 基于交叉指导和特征级一致性双正则化的半监督医学图像分割方法及系统
CN118470253B (zh) * 2024-07-15 2024-09-13 湖南大学 一种用于医学图像的表面网格重建方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223560A1 (en) 2016-06-24 2017-12-28 Rensselaer Polytechnic Institute Tomographic image reconstruction via machine learning

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0917154D0 (en) * 2009-09-30 2009-11-11 Imp Innovations Ltd Method and apparatus for processing medical images
US9552526B2 (en) * 2013-12-19 2017-01-24 University Of Memphis Research Foundation Image processing using cellular simultaneous recurrent network
EP3111373B1 (en) * 2014-02-27 2020-04-08 Koninklijke Philips N.V. Unsupervised training for an atlas-based registration
WO2017091833A1 (en) * 2015-11-29 2017-06-01 Arterys Inc. Automated cardiac volume segmentation
US20170337682A1 (en) * 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
CN107545584B (zh) * 2017-04-28 2021-05-18 上海联影医疗科技股份有限公司 医学图像中定位感兴趣区域的方法、装置及其系统

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017223560A1 (en) 2016-06-24 2017-12-28 Rensselaer Polytechnic Institute Tomographic image reconstruction via machine learning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BOLIN SHAO,Pericardium Segmentation in Non-Contrast Cardiac CT Images Using Convolutional Neural Networks,Master's thesis in Master Programme Biomedical Engineering,スウェーデン,CHALMERS UNIVERSITY OF TECHNOLOGY,2016年,p.1-p.51,https://publications.lib.chalmers.se/records/fulltext/244848/244848.pdf
M. Hossein Eybposh et al.,Segmentation and Classification of Cine-MR Images Using Fully Convolutional Networks and Handcrafted Features,arXiv,米国,CORNELL UNIVERSITY,2017年09月08日,p.1-p.9,https://arxiv.org/ftp/arxiv/papers/1709/1709.02565.pdf
Yipeng Hu et al.,Adversarial Deformation Regularization for Training Image Registration Neural Networks ,arXiv,米国,CORNELL UNIVERSITY,2018年05月27日,p.1-p.9,https://arxiv.org/ftp/arxiv/papers/1805/1805.10665.pdf

Also Published As

Publication number Publication date
EP3821377A1 (en) 2021-05-19
CN112602099A (zh) 2021-04-02
JP2021535482A (ja) 2021-12-16
US20210216878A1 (en) 2021-07-15
EP3821377A4 (en) 2022-04-20
WO2020041503A1 (en) 2020-02-27

Similar Documents

Publication Publication Date Title
JP7433297B2 (ja) 深層学習ベースのコレジストレーション
US20200193603A1 (en) Automated segmentation utilizing fully convolutional networks
Shen et al. Networks for joint affine and non-parametric image registration
US10871536B2 (en) Automated cardiac volume segmentation
JP6504590B2 (ja) 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体
US11854202B2 (en) Image registration using a fully convolutional network
US8861891B2 (en) Hierarchical atlas-based segmentation
WO2021136368A1 (zh) 钼靶图像中胸大肌区域自动检测方法及装置
WO2021017168A1 (zh) 图像分割方法、装置、设备及存储介质
US20230169727A1 (en) Generative Nonlinear Human Shape Models
US11822900B2 (en) Filter processing device and method of performing convolution operation at filter processing device
JP7083015B2 (ja) 超解像処理装置、方法及びプログラム
US20230099906A1 (en) Image registration method, computer device, and storage medium
Liu et al. Video frame interpolation via optical flow estimation with image inpainting
Zhang et al. A diffeomorphic unsupervised method for deformable soft tissue image registration
Sun et al. Medical image registration via neural fields
Chang et al. Structure-aware independently trained multi-scale registration network for cardiac images
US20240346671A1 (en) Deformable image registration
Shu et al. Non-rigid Medical Image Registration Based on Unsupervised Self-driven Prior Fusion
CN113487659B (zh) 一种图像配准方法、装置、设备及存储介质
Shanker et al. RESPNet: resource-efficient and structure-preserving network for deformable image registration
Chen et al. A multi-scale large kernel attention with U-Net for medical image registration
US20240273731A1 (en) Anatomy-driven augmentation of medical images
Bai et al. NODER: Image Sequence Regression Based on Neural Ordinary Differential Equations
Wu DiffOp-net: A Differential Operator-based Fully Convolutional Network for Unsupervised Deformable Image Registration

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240206

R150 Certificate of patent or registration of utility model

Ref document number: 7433297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150